Studio della modellistica agraria: collegamento di

Transcript

Studio della modellistica agraria: collegamento di
UNIVERSITA’ DI FIRENZE
DIPARTIMENTO DI SCIENZE AGRONOMICHE
E GESTIONE DEL TERRITORIO AGRO – FORESTALE
“ Attività di consulenza nell’ambito del progetto AGRO-SMART”
Rapporto finale
“Studio della modellistica agraria: collegamento di modelli
previsionali con quelli fenologici e di stima del rischio per i
principali agenti fitopatologici delle colture individuate.
S. Orlandini, P. Battista, B. Rapi, A. Dalla Marta, M. Petralli, M. Romani
Firenze ottobre 2008
1
Premessa
Attraverso questo contributo si prefiggono principalmente tre obiettivi:
1) completare il quadro informativo e consentire un uso corretto dell’informazione e dei modelli
trasmessi nell’ambito del progetto;
2) fornire un possibile schema d’integrazione tra i diversi elementi;
3) indicare le procedure di analisi richieste per ottenere una previsione dei principali eventi
fenologici e d’interesse operativo.
Il primo punto è chiaramente un proseguimento e un completamento di quanto fin qui fatto,
necessario per evitare conclusioni erronee, ma soprattutto per avviare correttamente la successiva fase di
coinvolgimento dell’utenza finale e messa a punto operativa dei sistemi.
Il secondo e il terzo punto, invece, rappresentano un passo in avanti verso la razionalizzazione
delle risorse e la comprensione delle potenzialità, ma anche dei limiti attuali, del sistema e delle sue
procedure.
In molti casi, le indicazioni e le note introdotte nel presente documento possono essere
considerate comuni alle diverse tipologie di modello (fenologico, agrometeorologico, fitopatologico,
ecc.) e ci preoccuperemo di mettere in evidenza soltanto i casi “particolari” o gli elementi di
differenziazione più importanti che dovranno essere necessariamente presi in considerazione nel corso
della fase di integrazione.
2
Indice
Premessa
1.
Introduzione
5
2.
Metodi operativi per la creazione di scenari e la previsione meteorologica
5
a scala locale
2.1. La creazione di scenari
6
2.2. Modelli per la generazione stocastica dei dati climatici
7
2.3. Stima della temperatura dell’aria
9
2.3.1 Generazione delle temperature orarie
2.4. Precipitazione
13
2.4.1 Generazione della precipitazione giornaliera
2.4.2 Generazione della precipitazione sub-giornaliera
2.5. Radiazione solare
21
2.5.1 Trasmissività atmosferica
2.5.2 Radiazione globale al suolo su superfici orizzontali
3.
Stima dei parametri
26
3.1. Stima da dati misurati
27
3.2. Stima da sommari mensili
28
3.3. Stima da informazioni qualitative
29
3.4. I dati aziendali
30
3.5. I dati colturali
32
3.6. La fenologia
32
3.6.1 Alcune considerazioni sull’effetto dello stress idrico sulle fasi fenologiche
3.6.2 Effetto vernalizzazione
3.6.3 Crescita di una coltura
3.6.4 Fattore di correzione della crescita per carenza idrica
3.6.5 Fattore di correzione della crescita per senescenza
3.6.6 Ripartizione della biomassa prodotta
4.
Collegamento dei modelli previsionali con quelli fenologici e di stima del rischio
38
4.1. Previsione fenologica
41
3
5.
4.2. Previsione fitopatologica
44
4.3. Indici ambientali e di tress
47
4.4. Integrazione
49
Possibile organizzazione del servizio
50
5.1. Struttura del servizio
53
5.2. Le potenzialità
54
4
1 Introduzione
In una agricoltura in continua trasformazione, da più parti chiamata a rispondere a problemi ed
esigenze sempre nuovi e pressanti, può essere decisivo disporre di strumenti di previsione e di supporto
alle attività gestionali. La logica e le metodologie tradizionali hanno dimostrato da tempo la loro
inadeguatezza rispetto alla possibilità di gestire correttamente la grandissima massa di informazioni e di
dati che oggi sono richiesti per una corretta pianificazione delle attività ed una gestione sostenibile delle
risorse e del territorio, che valorizzi e incentivi l’attività agricola.
Gli stessi mercati premiano chi è disposto ad investire sull’innovazione e propone risposte
operative concrete ai problemi ritenuti più scottanti. Anche se talvolta in passato queste risposte sono
apparse più d’immagine che di sostanza, si percepisce una crescente consapevolezza del valore aggiunto
dato dal rispetto dell’ambiente, dalla riduzione dell’inquinamento e dalla salvaguardia delle risorse
naturali e dell’occupazione.
Appare evidente che il raggiungimento di un ruolo multifunzionale deve accompagnarsi con una
crescente attitudine alla collaborazione e alla partecipazione, che trova la sua ultima espressione in una
sempre maggiore interdisciplinarietà, almeno a livello di programmazione e pianificazione. Anche a
livello dei Servizi e dei Decisori pubblici è ormai passato il concetto che soltanto attraverso un’azione
comune e concertata si possono affrontare, con speranza di successo, le sfide del mercato globale e quelle
dell’ambiente, della salvaguardia delle risorse e dello sviluppo.
La ricerca, dal canto suo, ha prodotto strumenti di supporto alla gestione che vengono impiegati
con qualche successo a livello operativo, anche se permane l’esigenza del tempo necessario per la messa
a punto e calibrazione. Purtroppo, sono ancora pochi i casi in cui questi strumenti sono liberamente
disponibili in linguaggio informatico sotto forma di “open source” software e ancora più rari quelli nei
quali i dati vengono condivisi liberamente tra gli tutti gli operatori del settore o all’interno di una
medesima filiera produttiva.
Nella grande maggioranza dei casi i dati raccolti dalle Regioni e dagli Enti Pubblici iniziano ad
essere disponibili soltanto adesso per applicazioni di tipo applicativo, mentre tra i privati resiste l’idea di
poter (o dover) “andare avanti da soli”, ostentando con orgoglio i “piccoli” miglioramenti apportati per
iniziativa autonoma.
Soltanto uscendo da questa logica miope e condividendo strumenti e conoscenze si potrà
progredire ad una velocità adeguata e ottenere i risultati, anche economici, sperati.
2 Metodi operativi per la creazione di scenari e la previsione agrometeorologica a
scala locale
Prima di affrontare le problematiche legate alla previsione degli eventi meteorologici avversi a
scala aziendale e delle diverse fasi fenologiche delle colture o degli insetti, occorre sottolineare
5
l’importanza di avere una profonda conoscenza delle relazioni che, a livello di parcella, governano i
diversi eventi.
Infatti, le informazioni prodotte tramite l’uso dei modelli possono essere rese aderenti alle
condizioni reali soltanto grazie alla disponibilità di lunghe serie di dati, che permettano di valutare e
comprendere i caratteri peculiari di ciascuna condizione. Questo implica in ultima analisi la possibilità di
effettuare accurate analisi statistiche, confrontando un sufficiente numero di casi diversi.
Le condizioni verificatesi in passato, per le quali dovrà essere reso disponibile l’intero set di dati
richiesto, rappresenta infatti uno “scenario”, cioè una condizioni forse unica ed irripetibile ma che
permette di definire alcuni limiti e alcune relazioni, che sono espressione di combinazioni complesse
altrimenti difficili da decifrare.
La generale indisponibilità di informazioni agronomiche e rilevamenti di campo, unitamente alla
cronica carenza di lunghe serie di dati meteorologici a scale compatibili con le esigenze operative, rende
spesso necessario il ricorso a consulenze esterne, con esperti in grado di ricreare condizioni il più
possibile vicine a quelle reali partendo, per esempio, da dati di produzione e stazioni sinottiche
posizionate a varia distanza dal sito.
Quando possibile, si tende a utilizzare processi stocastici, preservando le proprietà statistiche di
ciascuna variabile calcolate a partire da serie sufficientemente lunghe di dati, ma è anche possibile
ricorrere a software specifici, detti “generatori di dati meteorologici” o “weather generators”, che
sfruttano le stesse relazioni fisiche esistenti tra le variabili meteorologiche per completare serie esistenti
o creare nuove serie di dati.
La disponibilità di previsioni meteorologiche attendibili, fornite da un servizio competente è
sicuramente la soluzione auspicabile nel momento in cui venga prospettata l’attivazione di un servizio
agrometeorologico di tipo operativo. In quel caso, lo schema che può essere seguito dalla struttura, che
diventerà a tutti gli effetti un centro servizi, dovrebbe prevedere la definizione di precisi protocolli
procedurali e responsabilità operative
Nel caso in cui, il programma di lavoro preveda l’attivazione di un servizio di tipo sperimentale e,
in attesa di rendere ottimale l’approccio ai problemi previsionali, il consiglio è quello di integrare le
informazioni ottenute tramite strumenti modellistici con quelle provenienti dai normali canali
informativi (es. previsioni meteorologiche).
Per garantire l’ottenimento dei risultati sperati e una piena operatività in tempi rapidi, il personale
preposto alla gestione del servizio dovrebbe essere adeguatamente formato e dotato di opportuni
strumenti.
2.1 La creazione di scenari
Nell’ambito dell’agrometeorologia per scenario si intendere uno quadro ambientale ed operativo,
descritto in maniera sufficientemente precisa dai dati introdotti nel sistema di simulazione e analisi. In
6
molti casi, anche il cambiamento di un singolo valore può comportare la creazione di uno scenario e
richiedere approfondimenti ed analisi. Pertanto, non saranno soltanto i dati meteorologici a creare scenari
diversi, ma anche cambiamenti gestionali o interventi operati su un determinato contesto. Per il sistema,
lo scenario è quindi rappresentato dal set di dati utilizzato per effettuare la simulazione.
Dopo aver verificato il comportamento dei modelli sulla base di scenari noti e averne definito
potenzialità e limiti informativi, sarà pertanto possibile valutare in maniera obiettiva gli effetti di un
qualsiasi cambiamento sugli altri elementi d’interesse per il sistema produttivo (fenologia, fitopatologia,
produzione, ecc.).
Uno degli usi più comuni degli scenari agrometeorologici consiste nel valutare gli effetti di scelte
di tipo tecnico, confrontando ad esempio la produttività potenziale di differenti cultivar in un determinato
ambiente. Recentemente, tuttavia, sta acquisendo sempre maggiore importanza un’altra applicazione,
legata alla valutazione degli effetti di determinate condizioni meteorologiche nel breve e medio periodo.
Nel primo caso, volendo ricreare uno scenario, dovremo semplicemente inserire nel sistema le
informazioni e i dati necessari per descrivere le caratteristiche degli elementi da confrontare, usando per
il resto set di dati rappresentativi di condizioni medie e estreme (favorevoli e sfavorevoli). In questo
modo si ottiene una “forchetta” o range, descrittivo delle possibili risposte. Se fosse necessaria un’analisi
più approfondita, si potrà aumentare il numero di scenari, così da poter effettuare valutazioni su base
statistica, tenendo anche conto delle probabilità che si verificano determinati eventi (positivi o negativi).
Anche nel secondo caso si potrà procedere indicando il range di variazione, ma si potranno anche
introdurre dati e informazioni provenienti da servizi di previsione meteorologica e/o ricorrere all’uso di
strumenti specifici, come i “weather generators”.
Se disponiamo di previsioni aggiornate e puntuali fornite da un servizio meteorologico o
agrometeorologico, in grado di trasmettere i dati necessari nei tempi e secondo le modalità richieste, per
prima cosa sarà necessario realizzare strumenti software idonei al trasferimento dei dati all’interno del
database di sistema. Volendo fornire indicazioni a scale spazio-temporali molto elevate, comunque
compatibili con le esigenze dell’agricoltura di precisione, qualora i dati fossero puntuali e non
spazializzati si dovranno apportare le correzioni locali, almeno per quanto concerne la temperatura, la
pioggia e la radiazione.
In ogni modo, se fossero raggiunti accordi con servizi esterni, si dovrà anche prevedere una
collaborazione molto stretta tra i responsabili dei servizi, che potrà e dovrà essere rafforzata nell’ambito
di precisi progetti e programmi di sviluppo d’interesse comune. Gli esperti delle diverse discipline
(meteorologia, agrometeorologia, fitopatologia, ecc.) saranno chiamati a lavorare insieme per definire i
diversi aspetti legati alla razionalizzazione e ottimizzazione del servizio.
2.2 Modelli per la generazione stocastica dei dati climatici
Sono disponibili diversi modelli per la generazione stocastica di dati climatici a partire da dati
7
misurati sul lungo periodo (Bond, 1979; Nicks e Harp, 1980; Bruhn et al., 1980; Richardson, 1981).
Questi modelli usano tecniche che poggiano su solide basi teoriche, ma talvolta risultano di difficile uso
e applicazione (Richardson e Wright, 1984).
Un modello molto usato negli Stati Uniti è WGEN, proposto da Richarson e Wright (1984) che
permette di ottenere stime giornaliere delle temperatura minima e massima dell’aria, precipitazione e
radiazione solare. Per simulare le precipitazioni, il programma richiede i valori mensili di quattro
parametri, che per gli Stati Uniti sono stati determinati a partire da lunghe serie di dati raccolti su 139
località. Una versione modificata e potenziata di WGEN, denominata ClimGen, è stata sviluppata da
Gaylon S. Campbell (Washington State University, 1990).
Al solo fine di favorire un primo approccio alle problematiche legate alla previsione
meteorologica e alla generazione di lunghe serie dai dati, si introducono brevemente due semplici sistemi
software, distribuiti in forma gratuita, CLIMGEN appunto e RADEST.
CLIMGEN (http://www.bsyse.wsu.edu/climgen/)
Si tratta di un generatore di dati meteorologici, usato per svariate applicazioni e molto diffuso
anche in ambito agrometeorologico. Il software consente di generare lunghe serie di dati tenendo
conto della variabiltà climatica deducibili dalle serie storiche disponibili. Ricordiamo che per poter
avere una piena rappresentatività le serie dovrebbero essere almeno trentennali, ma anche serie
decennali potranno . Il modello rende disponibili i valori giornalieri di radiazione solare globale,
temperatura massima e minima, precipitazioni, vento, e alcune misure della presenza di vapor acqueo
nell'atmosfera (Acock and Acock, 1991). Come abbiamo visto, infatti, in molte zone agricole i dati
sono spesso incompleti o non facilmente reperibili; talvolta sono relativi a medie mensili e non
utilizzabili per i modelli fenologici o fitopatologica.
Di conseguenza, è utilie poter generare sequenze sintetiche di dati per le applicazioni di cui si è
detto. Quando sono disponibili dati misurati, i dati generati, per essere utilizzabili, devono essere
caratterizzati da valori di parametri statistici simili a quelli misurati per una data area,
RADEST (http://www.sipeaa.it/ASP/ASP2/RadEst.asp)
Stima la radiazione globale moltiplicando la trasmittanza atmosferica, che a sua volta è stimata
dalla temperatura dell’aria, per la radiazione potenziale. La trasmittanza viene calcolata da quattro
modelli diversi: Bristow-Campbell, Campbell-Donatelli, Donatelli-Bellocchi, DCBB. La calibrazione
di questi modelli è possibile in maniera iterativa a partire dai dati misurati. Le stazioni
geo-referenziate sono mostrate su mappa e strumenti statistici consentono la valutazione della validità
delle stime e degli andamenti pluriennali delle misure. Gli errori sistematici possono essere rilevati e
corretti e le stime prodotte sono state utilizzate per calcolare il calcolo dell’evapotraspirazione
potenziale con i modelli Priestley-Taylor e Penman-Monteith.
8
2.3 Stima della temperatura dell’aria
Le temperature minime e massime dell’aria possono essere generate anch’esse a partire da
consistenti serie storiche, tramite un processo stocastico continuo, condizionato dalla presenza o meno di
un evento piovoso, secondo un approccio statistico. La generazione di Richardson (1981), ad esempio,
include anche la correlazione tra temperatura dell’aria e radiazione globale al suolo.
I valori giornalieri di temperatura dell’aria , in pratica, vengono fatti dipendere dai valori statistici
ricavati dalle serie storiche per quel dato giorno e dall’eventuale evento piovoso che sarà stato assegnato
dal programma. Il dato generato sarà anche dipendente dall’andamento registrato in precedenza e
dall’escursione termica attesa (Danuso, 2002).
Un altro approccio è quello seguito da Remund e Page (2002) che utilizzano un processo
autoregressivo per generare i valori di temperatura massima e minima giornaliera in funzione dei dati di
radiazione solare. Di seguito si descrive sinteticamente il modello di Danuso.
Modello Danuso
Il modello di Danuso (2002) per la generazione delle temperature dell’aria prevede, oltre a una
stima dei residui giornalieri, anche il calcolo di un trend annuale. I trend annuali per le temperature
massime e minime sono calcolati per interpolazione attraverso una serie di Fourier di secondo ordine:
dove
A
B, D
C, E
i
- media annuale di Tmin per i giorni asciutti (°C);
- fattori di ampiezza (°C);
- fattori di shift temporale;
- numero del giorno nell’anno.
La formula del trend è linearizzata attraverso una trasformazione trigonometrica e i parametri
sono stimati per le quattro combinazioni (Tmax, Tmin, giorni asciutti e piovosi).
Con Rn si indica il residuo campionato da una distribuzione normale bivariata N2(0,Ωn) con 0
vettori di medie e con Ωn matrice di covarianza dei residui di Tmin(d-1) e Tmin (Tmin(d-1) è la
temperatura minima del giorno precedente):
dove SRn è la deviazione standard dei residui dai trend di Tmin, per i giorni asciutti e per quelli piovosi,
RRnn è il coefficiente di autocorrelazione per i residui di Tmin con lag temporale di 1 giorno.
Con Rn si indica il residuo campionato da una distribuzione normale bivariata N2(0, Ωx) con
9
vettore nullo delle medie e con Ωx matrice di covarianza dei residui di Tmax(d-1) e Tmax (Tmax(d-1) è
la temperatura massima del giorno precedente):
dove SRx è la deviazione standard dei residui dai trend di Tmax, per i giorni asciutti e per quelli piovosi,
RRnx è il coefficiente di autocorrelazione per i residui di Tmin e Tmax per lo stesso giorno.
I valori giornalieri di Tmax e Tmin, generati sia per i giorni asciutti che piovosi, sono ottenuti
sommando due contributi:
o a seconda dello stato del giorno (asciutto o piovoso), il valor medio di Tmax per quel giorno, è
calcolato dal proprio trend;
o un residuo (Rx, indipendente dallo stato del giorno) campionato da una distribuzione normale
bivariata di Tmax e Tmin e considerando la correlazione tra i residui di Tmax e Tmin dello stesso
giorno, è aggiunto al valore del trend di Tmax
o a seconda dello stato del giorno (asciutto o piovoso), il valor medio di Tmin per quel giorno, è
calcolato dal proprio trend;
o un residuo (Rn, indipendente dallo stato del giorno) campionato da una distribuzione normale
bivariata, autocorrelata con i residui di Tmin del giorno precedente (processo autoregressivo di
primo ordine), è aggiunto al valore del trend di Tmin
Nella tabella seguente sono riportati le funzioni che descrivono i valori di Tmax e Tmin in
funzione dello stato della precipitazione:
Tmax
Tmin
Stato della precipitazione
asciutto
piovoso
Txd + Rx
Txw + Rx
Tnd + Rn
Tnw + Rn
con Txd e Tnd sono il valor medio rispettivamente di Tmax e di Tmin per i giorni asciutti, Txw e Tnw
sono il valor medio rispettivamente di Tmax e di Tmin per i giorni piovosi, e Rx e Rn sono il residuo
casuale rispettivamente per Tmax e per Tmin.
Una volta stabilita la condizione del giorno in rapporto alla precipitazione, Tmax e Tmin sono
generate separatamente per lo status corrispondente (asciutto o piovoso). All’inizio di ogni nuovo anno i
valori dei parametri A, B e D sono campionati dalle distribuzioni normali N(MA, SA), N(MB, SB) e
N(MD, SD), per ciascuna combinazione delle temperature, al fine di ottenere i trend annuali delle
temperature dalle serie di Fourier.
10
2.3.1 Generazione delle temperature orarie
Le funzioni sinusoidali sono ampiamente utilizzate per rappresentare l’andamento delle
temperature dell’aria nel corso del giorno. In Donatelli et al. (2006) si distinguono sette diversi approcci,
includendo un metodo per derivare i valori orari di temperatura dal profilo della radiazione solare.
Un primo modello di ripartizione oraria è quello di Campbell (1985), per cui la temperatura
dell’aria (Thr, °C) per ciascuna ora (hr) è data da:
dove
Tavg - temperatura dell’aria media del giorno (°C);
hrdv - ora del giorno in cui si verifica Tmax (valore standard è 15.00, a cui corrisponde le 03.00
per Tmin).
Un’altra espressione sinusoidale (Shr) è fornita da Ephrath et al. (1996) per descrivere la
variazione giornaliera della temperatura dell’aria:
ove LSH è l’ora in cui si verifica la massima altezza del sole sull’orizzonte (~12.00), DL(d) è la
lunghezza del giorno e p è il fattore di ritardo di Tmax rispetto a LSH (valori variabili nell’intervallo
1.5-3.5). Fino all’alba la temperatura dell’aria è considerata costante e pari a Tmin. L’equazione per i
valori orari della temperatura dell’aria dall’ora successiva all’alba fino al tramonto è data da:
dove Tk (°C) è una misura dell’incremento del trasporto di calore nell’atmosfera (valore di
riferimento=15), AMP (°C) è un fattore dell’intervallo tra Tmin e Tmax, pari a:
Nelle ore notturne, successive al tramonto, sono stimate con una curva esponenziale decrescente:
in cui ss(d) e sr(d) sono rispettivamente le ore del tramonto e dell’alba, Thr(ss(d)) è la temperatura dell’aria
al tramonto (°C), TC (h) è un coefficiente orario notturno (valori 3-5).
11
Goudriaan e Van Laar (1994) usano una progressione sinusoidale per le ore del giorno e un
declino esponenziale per le ore notturne per rappresentare il ciclo giornaliero delle temperature aeree.
Due coefficienti, p(h) e TC(h), definiscono l’intervallo tra il raggiungimento della massima altezza del
sole e l’ora in cui si verifica Tmax e un coefficiente delle temperature notturne. Inoltre, sono definiti due
valori (A, D) per la temperatura aerea in corrispondenza del tramonto, Thr(ss(d)):
dove A indica il periodo notturno fino all’alba, D denota il periodo tra il tramonto e la mezzanotte e gli
indici ’ e ’’ rappresentano rispettivamente i valori del giorno precedente e del giorno successivo. Il
periodo successivo all’alba e fino al raggiungimento di Tmax è identificato con B, mentre con C si indica
il periodo che segue fino all’ora precedente il tramonto. I valori orari della temperatura dell’aria sono
stimate come segue:
Stöckle (2002) ha invece suggerito un modello basato su una funzione oraria, Γ(hr), derivata da
una serie di Fourier con due termini:
I valori di riferimento per i coefficienti empirici della funzione sono a = 0.44, b = -0.46, c = 0.9,
d = 0.11, e = 0.9. Usando questa funzione, la temperatura dell’aria in ciascuna ora del giorno è data dal
seguente set di equazioni:
12
Il modello di Dumortier (2002) si distingue dai precedenti perché fa uso del profilo giornaliero
della radiazione solare, mediante un coefficiente orario, kx(hr), dato dal rapporto tra la radiazione globale
ricevuta fino a quell’ora da una superficie orizzontale e il prodotto tra la costante solare e il numero di ore
di luce fino all’ora considerata. La temperatura aerea cresce al crescere di kx e raggiunge il suo massimo
quando kx(hr) è massimo (kxmax). Al decrescere di kx decresce anche la temperatura aerea. La relazione
lineare tra kx(hr) e la temperatura aerea è pilotata da due coefficienti, slpbeforekx (max) prima di kx max e
slpbeforekx (max) successivamente:
con a parametro empirico il cui valore di riferimento è 1.7. I due coefficienti, slpbeforekx (max) e slpbeforekx (max)
sono usati per calcolare le temperature dell’aria nelle ore di luce:
Nelle ore notturne le variazioni termiche sono principalmente influenzate dalla nuvolosità e le
temperature orarie sono stimate in funzione di un tasso di raffreddamento notturno (NCR):
ove NCR è stimato in funzione del rapporto tra la differenza della, temperatura al tramonto del giorno
precedente,Tss(d-1), e la temperatura minima (Tmin), e la differenza tra l’ora del tramonto del giorno
precedente, ss(d-1) e l’alba del giorno stesso, sr(d):
2.4 Precipitazione
La generazione stocastica di serie giornaliere di dati di precipitazione presuppone in via
preliminare la determinazione dei giorni piovosi. Il passaggio da un giorno asciutto o piovoso a un altro
giorno asciutto o piovoso è governata dalle probabilità di transizione. Nel caso più semplice è previsto un
sistema a due stati; in alternativa, un approccio multistrato può essere applicato definendo più classi di
piovosità.
Il processo di transizione a due stati è rappresentato da una catena di Markov di primo ordine
(Nicks et al., 1990). Giorni asciutti e piovosi sono generati conoscendo la probabilità di avere un giorno
piovoso preceduto da uno piovoso, p(w/w), e la probabilità di avere un giorno piovoso preceduto da un
giorno asciutto, p(w/d). Le restanti due probabilità, p(d/w) e p(d/d), sono complementari alle precedenti:
13
p(d/w)=1-p(w/w),
p(d/d)=1-p(w/d).
Le probabilità di transizione possono essere estratte su base mensile da dati di precipitazione
giornaliera di lungo periodo. Lo stato di ciascun giorno generato si determina sottraendo p(w/w) o p(w/d)
da un numero casuale tra 0 e 1: se il risultato è maggiore di zero non si verificherà alcuna precipitazione,
altrimenti viene generato un evento piovoso.
Alternativamente, può essere usato un modello di transizione multistato. In base a Srikanthan e
Chiew (2003), le quantità giornaliere di precipitazione sono divise in un numero di classi, fino a un
massimo di sette (la prima classe corrisponde allo stato non piovoso).Tutte le probabilità di transizione
da uno stato all’altro definiscono una matrice di probabilità. La probabilità di un giorno piovoso
successivo a un certo stato si determina in base al minimo dei valori ottenuti sottraendo le probabilità per
tutti gli stati di seguire quel dato stato da un numero casuale tra 0 e 1: se il risultato è >0 nessuna
precipitazione è generata, altrimenti si verifica un evento piovoso in corrispondenza dello stato che ha
prodotto la minima differenza.
2.4.1 Generazione della precipitazione giornaliera
Nei giorni in cui è previsto un evento piovoso, il livello di precipitazione è determinato per
campionamento casuale da funzioni di distribuzione di probabilità (Tab. 1).
Tab. 1 – Distribuzioni di probabilità per la generazione giornaliera delle precipitazioni.
Pd - precipitazione giornaliera (mm); Pd - precipitazione giornaliera media nel mese (m); α - parametro
di scala (mm); β - parametro di forma; λ - parametro di posizione (mm)
14
2.4.2 Generazione della precipitazione sub-giornaliera
Per disaggregare il dato giornaliero di piovosità a livello orario o sub-orario si possono si possono
utilizzare vari metodi, fra i quali possiamo citare:
o Meteotest (2003): risoluzione oraria
o Olsson (1998): risoluzione oraria
o Arnold e Williams (1989): risoluzione semi-oraria
o Connolly et al (1998): risoluzione variabile (oraria, semioraria, 10 minuti)
Metodo Meteotest
Secondo il metodo Meteotest (2003) la possibilità di precipitazione per ciascuna ora del giorno,
P(Phr), è simulata con un processo autoregressivo, Pm(hr), e un modello del profilo giornaliero, Ps(hr):
Pm (hr) = 1 + e · sin [π/2 + (hr + 1) · (2π/24)]
Ps (hr) = f · Ps (hr-1) + g · X
P (Phr) = Pm (hr) + Ps (hr)
in cui X è una variabile casuale campionata da una distribuzione normale standard. I valori di riferimento
dei parametri empirici sono: e = 0.15, f = 0.7, g = 0.2. La possibilità di precipitazione è utilizzata per
determinare le ore piovose del giorno, nel contesto di un numero di ore piovose, nhr, stimato con la
seguente formula:
nhr = int {α [(b Pd)/Pd + c Pd + d Pd]}
i cui parametri sono stimati localmente (valori di riferimento: a = 1.5, b = 4.096, c = 0.365, d = -0.029).
Dato il numero di ore piovose nella giornata, ad nhr ore con i più alti valori di P(Phr) sono assegnate
delle quantità di pioggia campionate da una distribuzione di Weibull. La stima di nhr è valida se il
numero di octa giornaliere è superiore a 6, altrimenti nhr è posto pari al numero di octa.
Metodo di Olsson
Secondo l’approccio di Olsson (1998), il dato giornaliero di precipitazione è decomposto in valori
orari in base a un processo a cascata di tipo moltiplicativo. La ripartizione a cascata procede in modo
dicotomico per cui si passa progressivamente da un livello a uno di risoluzione doppia fino a raggiungere
la risoluzione oraria, secondo la progressione: risoluzione giornaliera, risoluzione di 12 ore, risoluzione
di 6 ore, risoluzione di 3 ore, risoluzione di 1.5 ore, risoluzione di 45 minuti. Ogni quantità in 45 minuti è
suddivisa in tre quantità equivalenti di 15 minuti ciascuna. Gruppi di quattro volumi consecutivi di 15
minuti sono sommati per ottenere la risoluzione oraria. I livelli di precipitazione sono suddivisi nelle
risoluzione inferiore mediante due fattori di ponderazione, W1 e W2, compresi tra 0 e 1 e complementari
15
(W1+W2=1). Tre schemi di ripartizione sono possibili: divisione 1|0 in cui tutta la quantità di pioggia è
assegnata al primo intervallo (W1=1, W2=0), divisione 0|1 in cui tutta la quantità di pioggia è assegnata al
secondo intervallo (W1=0, W2=1), divisione x|x in cui la quantità di pioggia è ripartita proporzionalmente
tra i due intervalli (0<W1, W2<1). Nella modulazione tra un livello e l’inferiore, sono P(0|1), P(1|0) e
P(x|x) le probabilità di avere le divisioni 0|1, 1|0 e x|x rispettivamente. Il modello è specificato da un
generatore casuale secondo la struttura generale definita da Gupta e Waymire (1993):
W1, W2
=
0e1
con probabilità con P(0/1)
1e0
con probabilità con P(1|0)
Wx|x e 1 Wx|x con probabilità P(x|x)
in cui P(0|1)+P(1|0)+P(x|x)=l. Le coppie di pesi associate alla ripartizione in ciascun livello sono
assunte come mutuamente indipendenti.
I parametri del generatore dipendono dalle caratteristiche di posizione e livello di ciascun volume
di pioggia da ripartire. Per la posizione, di distinguono quattro tipologie: (1) iniziale, preceduta da un
intervallo non piovoso e seguita da un intervallo piovoso, (2) chiusa, preceduta e seguita da un intervallo
piovoso, (3) finale, preceduta da un intervallo piovoso e seguita da un intervallo chiuso, (4) isolata,
preceduta e seguita da un intervallo asciutto. Per quanto riguarda il volume, ciascuna tipologia di
posizione è divisa in due classi: volume basso (al di sotto del volume medio) e volume alto (al di sopra
del volume medio). Per ciascuna categoria sono estratte le probabilità P. Per i valori di Wx|x si assume la
distribuzione di probabilità uniforme. Il tipo di suddivisione è determinato estraendo un numero casuale
U, uniformemente distribuito tra 0 e 1: se U<P(1|0) la suddivisione è del tipo 1|0, se P(1|0)<U<
P(1|0)+P(0|1) la suddivisione è del tipo 0|1, se P(0|1)+P(1|0)<U la suddivisione è del tipo x|x.
Metodo di Arnold e Williams
Il metodo di Arnold e Williams (1989) per la generazione semi-oraria della precipitazione si basa
su una distribuzione esponenziale delle piovosità. Il parametro fondamentale per l’applicazione di questo
approccio è la frazione massima media mensile della precipitazione in mezz’ora, α 0.5m. I dati di input
mensili sono usati per calcolare il picco in mezz’ora (P0.5p, mm) per una precipitazione giornaliera pari a Pd:
P0.5 p = α 0.5 · Pd
dove α 0.5 è la frazione massima giornaliera della precipitazione in mezz’ora, campionata da una
distribuzione triangolare i cui limiti sono α 0.5d≥0.02083 e α0.5u≤1. Il limite inferiore è un dato di input,
mentre il limite superiore è stimato tramite:
α 0.5u = 1 − e
125
pd
16
La distribuzione triangolare usa una delle due equazioni seguenti per generare la frazione
massima in mezz’ora per ciascun giorno piovoso:
dove r è un numero casuale compreso tra 0 e 1. La posizione del picco della distribuzione triangolare è
data da un valore α0.5p, calcolato dalla seguente formula:
α0.5p = α0.5 m ⋅ α0.5 u
La durata dell’evento piovoso, D, espressa in minuti e poi convertita in mezz’ore, è generata da
una distribuzione triangolare compresa tra un minimo, Dd ≥ 1, e un massimo, Du ≤ A. Il limite inferiore
è un input, mentre il limite superiore è dato da:
Il termine A è pari a 1440 minuti per eventi piovosi non istantanei, definiti da piovosità
giornaliere non inferiori a un determinato limite, Pdt. Se Pd<Pdt l’evento si assume istantaneo, pertanto A
=1. La posizione del picco della distribuzione triangolare della durata, Dp, è stimata come:
Dp = 0.4 Du
La precipitazione giornaliera è ripartita in quantità semi-orarie nel contesto della durata generata
dell’evento piovoso giornaliero, pertanto Dp ≤ D. Quantità semi-orarie di pioggia sono generate da una
distribuzione esponenziale, il cui parametro è il valor medio in mezz’ora, P0.5m, stimato come segue:
Il termine F è una stima della frequenza di P0.5p, secondo la formulazione di Hazen (Chow, 1964):
F = [1/(2τ)]
in cui τ è il numero potenziale di quantità semi-orarie di pioggia in un giorno, direttamente ricavato dalla
durata
17
τ = D/30
La condizione P0.5m = P0.5p è imposta se D<41 minuti. Per stimare la distribuzione temporale dei
valori P0.5 è richiesta la generazione della posizione del picco, pp, compresa tra 0 (inizio dell’evento
piovoso) e 1 (fine dell’evento piovoso) secondo una distribuzione lineare spezzata. La distribuzione, f(pp),
declina linearmente da 0 a 0.5, mentre è costante (f=0.078943) da 0.5 e 1. La media della distribuzione è
pari a 0.433. Il campionamento da questa distribuzione è fatto mediante la tecnica del rigetto, usando due
numeri casuali (0 ≤r1 ≤1 e 0 ≤r2 ≤0.184227). Le quantità P0.5 sono generate da una distribuzione
esponenziale tenendo conto della correlazione esistente tra quantità consecutive:
P0.5g (mm) sono le precipitazioni in mezz’ora generate da una esponenziale il cui parametro è P0.5m; il
pedice i indica la posizione della mezz’ora all’interno dell’evento e varia da 1 al numero delle mezze ore
generate. Il processo di generazione termina quando la somma delle quantità generate raggiunge o eccede
la piovosità giornaliera. Il pedice i = 1 corrisponde alla posizione del picco. Il modello inizia con la
generazione di P0.5p e prosegue generando quantità semi-orarie in entrambe le direzioni attorno al picco.
I valori di ρ sono computati su base mensile e corrispondono all’inverso delle medie delle intensità
massime (ipm, mm h-1). Anche se il modello originario non prevede la stima del momento di inizio
dell’evento piovoso (tp, 1/2 h), questa può essere fatta tramite il campionamento da una distribuzione di
Erlang (Salsòn e Garcia-Bartual, 2003).
dove U(0,1) è un numero casuale da una distribuzione uniforme. Il parametro α è l’inverso del tempo
medio di inizio. La condizione da verificare è tp+Da ≤ 48 mezze ore, pertanto il campionamento è
reiterato fintanto tale condizione non sia verificata.
Metodo di Connolly et al.
Il metodo di Connolly et al. (1998) prevede la possibilità di una generazione sub-giornaliera con
risoluzione variabile, da un’ora a circa 10 minuti. Inoltre, a differenza del precedente, interpreta le
possibili intermittenze dell’evento piovoso giornaliero. Una distribuzione di Poisson rappresenta il
numero di eventi, N, in un giorno piovoso:
f (N ) =
λ N −1 ⋅ e −1
( N − 1)
dove il parametro λ è un coefficiente legato a media (µ N) e varianza (σ2 N):
µN = λ + 1
σ2 N = λ
e il numero N di eventi è il minimo intero che soddisfa alla condizione:
18
dove U è un numero casuale uniforme nell’intervallo 0-1.
La durata di ciascun evento, D, scalata nell’intervallo 0-1, è rappresentata da una distribuzione
gamma semplificata, in cui il parametro di scala, α , è stimato, mentre il parametro di forma, β , è posto
pari a 2:
Un numero casuale ,U, uniforme nell’intervallo 0-1, è generato e la durata dell’evento è simulata
risolvendo la funzione di densità cumulata:
Per ciascun evento, una distribuzione esponenziale è usata per simulare la precipitazione, P:
dove α è un parametro di scala, pari all’inverso della media. Il processo di generazione è reiterato per
ciascuno degli N eventi in un giorno, fino a raggiungere una piovosità cumulata pari alla piovosità
giornaliera.
Il momento di inizio di ciascun evento, t, scalato nell’intervallo 0-1, è generato da una
distribuzione beta:
dove β1 e β2 sono parametri di forma positivi adimensionali, legati a media (µ t) e varianza (σ t2 ) :
σ t2 =
β1 ⋅ β 2
( β 1 + β 2 + 1)( β1 + β 2 ) 2
Il tempo che intercorre dall’inizio dell’evento al raggiungimento del picco dell’evento (tpi), è
ricavato dalla distribuzione esponenziale di un indice di tpi (ρ):
la cui media (µp) è stimata come:
19
in cui v1 e v2 sono parametri empirici.
L’intensità sul picco di ciascun evento, ip, scalato nell’intervallo 0-1, è determinata da una
distribuzione esponenziale standardizzata (con media nulla e varianza unitaria) di un indice ϑ di ip:
la cui media (µϑ) e deviazione standard (σϑ) sono stimate come:
dove v5 e v6 sono parametri empirici e β è lo stesso parametro della distribuzione gamma usata per la
generazione della piovosità.
Le intensità di pioggia interne all’evento sono rappresentate da una doppia funzione esponenziale
(Lane e Nearing, 1989), basata su una intensità di pioggia normalizzata, i’:
per ciascun tempo scalato, t, e normalizzato su t’pi:
Il numero di sottointervalli n in ciascuno degli N intervalli dipende dalla risoluzione temporale
TR (min) scelta.
n = (1440 / TR) D
Le opzioni più rilevanti sono TR =10, 30 o 60 minuti.
L’intensità media sugli n sotto-intervalli, usando tk come limite superiore di ciascun
sottointervallo, con 0 ≤ k ≤ n, t0 = 0, tn = 1, è determinata da:
dk =( tk - tk-1 ) D
e
20
dove ik e dk sono, rispettivamente, l’intensità di pioggia e la durata per ciascun j-esimo sottointervallo. I
parametri empirici da stimare si riducono al solo u2:
Il parametro u2 è estratto mediante il metodo di Newton (Carnahan et al., 1969).
2.5 Radiazione solare
La radiazione solare al limite dell’atmosfera terrestre è chiamata radiazione solare extra-terrestre
ed è calcolata su base giornaliera, Rgo, note la costante solare Io, la latitudine ϕ e la declinazione solare
δ , mediante l'equazione:
Rg o = Io
dove
Rgo
Io
ϕ
δ
24
π
sen ϕ sen δ [Hg - Tg Hg ]
= radiazione solare extraterrestre giornaliera (J m-2 d-1)
= energia solare oraria
(4.87 ⋅106 J m-2 h-1)
= latitudine del luogo
(rad)
= declinazione del Sole
(rad)
⎡ 360 (ng - 172 )⎤ π
⎥⎦ 180
365
δ = 23.5 cos ⎢
⎣
con ng = numero del giorno a partire dal 1 gennaio
Hg
= angolo orario al tramonto/alba
(rad)
Hg = arc cos (-Tg δ Tg ϕ )
Angolo orario
L’angolo orario (H) è l’angolo percorso dal Sole misurato sulla sfera celeste, a partire dal
mezzogiorno reale; H è nullo a mezzogiorno, assume valori positivi dopo il mezzogiorno e negativi
prima di esso. La velocità apparente del Sole rispetto alla Terra è costante; il Sole compie un giro (360°)
in 24 ore e pertanto ogni ora percorre 15°. L’angolo orario per ogni ora solare (t) del giorno riferita al
meridiano del luogo è equindi spresso dalle seguenti relazioni:
H = (t − 12) 15
H = (t − 12)
π
12
in gradi
in radianti
⇒
t=
H
+ 12
15
⇒
t=
12
H + 12
π
21
Altezza del Sole
La posizione del Sole in un certo istante, valutata da un punto della Terra, dipende dal punto di
osservazione, attraverso la sua latitudine ϕ, dal giorno dell’anno attraverso la declinazione δ e dal
momento del giorno attraverso l’angolo orario H. L’altezza h del Sole (angolo di elevazione) è data da:
sen h = sen δ sen ϕ + cos δ cos ϕ cos H
Durata del Giorno
Dall’equazione dell’altezza del Sole è possibile ricavare la durata del dì1 in un certo giorno
dell’anno; tenendo conto che al tramonto e all’alba il Sole ha altezza nulla sull’orizzonte, si ottiene che
0 = sen δ sen ϕ + cos δ cos ϕ cos Hg
da cui si ricava l’angolo orario, Hg, ai crepuscoli2
cos Hg = − tg δ tg ϕ
Dato che Hg rappresenta l’angolo percorso da mezzogiorno al tramonto, l’angolo percorso
durante il dì sarà pari a 2Hg. Ricordando che il Sole percorre 15° ogni ora (π/12 radianti ogni ora) si
ottiene che la durata, N, del giorno (o meglio del dì) è:
N=
2Hg
N=
24H g
15
π
con N in ore, Hg in gradi sessagesimali
con N in ore, Hg in radianti
2.5.1 Trasmissività atmosferica
La trasmissività atmosferica, tt, rappresenta la frazione della radiazione solare extra-terrestre
giornaliera che arriva al suolo e può essere calcolata tramite l’equazione:
tt =
Rg
Rg o
-2
Dove
Rg = radiazione solare globale al suolo giornaliera (MJ m d-1)
Rgo = radiazione solare extraterrestre giornaliera
(J m-2 d-1)
1
Le ore di luce di un giorno definiscono il dì, quelle di buio la notte. È però comune chiamare giorno le ore di luce; ciò può causare qualche
fraintendimento nella locuzione “durata del giorno”. Infatti il giorno terrestre dura sempre 24 ore mentre la durata del dì cambia di giorno in
giorno a seconda della latitudine.
2
Alba e tramonto, cioè inizio e fine del dì, si chiamano crepuscoli.
22
La trasmissività in condizioni di cielo sereno (τ ) è spesso usata per stimare la trasmissività
effettiva. Può essere posta pari a una costante sito-specifica (valore di riferimento pari a 0.75) oppure
modellata con le funzioni elencate nella tabella 2.
Tab. 2- Modelli per la stima della trasmissività giornaliera in condizioni di cielo sereno.
Legenda eq. Woodward et al.
i - numero del giorno nell’anno;
if - fattore del giorno nell’anno (emisfero nord: if =0; emisfero sud: if =174)
A - valor medio di τ;
B - fattore di ampiezza;
Legenda eq. Winslow et al.
τo - trasmissività in condizioni di cielo sereno e di aria secca
τo = a + b |λ| c
con λ’ - latitudine (gradi)
τa - trasmissività legata agli aerosol e all’ozono (valore di riferimento pari a 1)
τv - trasmissività legata al vapor acqueo
τ (v) = d + e (T + f ) z
T - media della temperatura dell’aria del sito
cz - correzione per l’elevazione sul livello del mare
cz = (1+ h z)
con z - elevazione sul livello del mare (m)
a, b, c, d, e, f, h - fattori empirici
Legenda eq. Thorton and Runnig
τo – trasmissività al nadir, in condizione di aria secca (valore di riferimento pari a 0.87)
υ - parametro di incidenza della pressione di vapore sulla massima trasmissività (Pa-1) (valore di
riferimento pari a 6.1·10-5)
ea - pressione di vapore (Pa)
2.5.2 Radiazione globale al suolo su superfici orizzontali
La radiazione globale che arriva su una superficie orizzontale del suolo terrestre viene stimata su
base giornaliera, con relazioni empiriche o semi-empiriche di natura fisica, oppure generata con processi
stocastici. Fattori geometrici vengono applicati ai valori stimati su base fisica per convertire le stime da
superfici orizzontali a superfici inclinate. In tabella 3 sono riportati alcuni dei modelli a base fisica
23
utilizzabili per la stima dei valori giornalieri di radiazione globale Gh(d) (MJ m-2 d-1) .
Tabella 3 – Modelli per la stima della radiazione solare globale giornaliera su una superficie orizzontale.
Legenda
i: numero del giorno nell’anno
τ: trasmissività atmosferica in condizioni di cielo sereno
b: coefficiente dell’intervallo termico giornaliero (°C -1)
∆T(d): intervallo termico giornaliero, pari a
Tmax(d): temperatura aerea massima giornaliera
Tmin(d): temperatura aerea minima giornaliera
∆Tm: intervallo termico medio mensile
f(Tavg): funzione della temperatura aerea media giornaliera, pari a
Tavg: temperatura aerea media giornaliera
CCD, kCD, coefficienti empirici (°C-1), rispettivamente pari a 0.017 e -0.053
f(Tmin): funzione della temperatura aerea minima giornaliera, pari a
24
ir - opzione di reverse (i o 361-i)
c1 - fattore di frequenza della stagionalità
c2 - fattore di ampiezza della stagionalità
f(c2): funzione della stagionalità, pari a
f(c2) = 1-1.9 c3+3.83 c32
con c3 - parte decimale di c2
D(d) - fattore di correzione per la lunghezza del giorno
β - parametro della temperatura aerea (°C -1)
∆T - intervallo termico medio del sito (°C)
T - temperatura media del sito (°C)
es(Tmax(d)), es(Tmin(d)) - pressione di vapore saturo giornaliera (kPa), pari a
con Tx alternativamente, Tmax(d) o Tmin(d)
Aa - trasmissività minima per cielo coperto
Ba - coefficiente angolare della trasmissività
SSD(d) - durata giornaliera delle ore di luce (h)
DL(d) - lunghezza teorica del giorno (h)
Bhc(d) - componente diretta della radiazione solare giornaliera su una superficie orizzontale (MJ m-2 d-1)
Dhc(d)- componente diffusa della radiazione solare giornaliera su una superficie orizzontale (MJ m-2 d-1)
C - costante solare, pari a 4.921 MJ m-2 h-1
p - frazione dello spettro radiante, pari a 1
βn - elevazione solare a mezzogiorno (rad)
25
fblue(d)- intensità relativa della radiazione giornaliera da cielo sereno
fcloud(d) - intensità relativa della radiazione giornaliera da cielo coperto
FF - fattore di ripartizione delle intensità luminose (valore di riferimento pari a 1)
c(d) - proporzione giornaliera di cielo coperto, pari a
As - coefficiente dell’intervallo termico giornaliero (°C -0.5)
Bs - coefficiente della copertura nuvolosa
Cs - fattore di aggiustamento della radiazione (MJ m-2 d-1)
Cw(d) - copertura nuvolosa media giornaliera (ottavi)
3
Stima dei parametri
In ambito statistico, si definisce Parametro (θ) un valore rappresentativo di un determinato
elemento di una funzione o di una popolazione, ritenuto relativamente costante nel tempo. Il parametro è
quindi una variabile non casuale che, una volta definita, rimane costante finché non variano le condizioni
al contesto. Nel caso dei modelli agrometeorologici, con la parametrizzazione si cerca di esprimere
quelle che sono le caratteristiche intrinseche del sistema o dell’insieme dei dati, in modo da riprodurre il
più fedelmente possibile i comportamenti dei diversi elementi d’interesse e le reciproche interrelazioni.
La variazione del valore del singolo parametro permette di esplorare varie possibilità,
adeguandosi gradualmente ai processi reali della realtà indagata. Sul concetto di parametro si basa la
possibilità di utilizzare le statistiche parametriche, ovvero le statistiche che si fondano sull'assunzione a
priori dell'esistenza di un parametro descrittivo della distribuzione dei dati nella popolazione di
riferimento.
Come più volte sottolineato nel corso degli incontri, per rendere attendibili e praticamente valide
le uscite dei modelli agrometeorologici e quindi giungere ad indicazioni utili dal punto di vista operativo,
occorre procedere ad un’attenta definizione dei parametri sito-specifici. Per ciascun sito, bisognerà
disporre di valori che siano in grado di guidare i diversi modelli, sia quelli più specificatamente
meteorologici sia quelli più propriamente fenologici o fitopatologici.
Nel caso dei modelli meteorologici i valori dei parametri da utilizzare per la generazione delle
variabili dovranno essere ricavati dalle serie climatiche disponibili. Al fine di avere dati attendibili
potranno essere sufficienti anche solo due - tre anni nel caso della radiazione solare e una decina di anni
26
per la temperatura, ma occorreranno almeno venti anni per le piogge.
Per quanto riguarda i modelli fenologici o fitopatologici, occorrerà disporre non soltanto dei dati
meteorologici per il sito d’interesse, ma anche delle osservazioni fenologiche quali data della comparsa
di un determinato evento ed evoluzione (%) all’interno della popolazione.
Indicativamente possiamo ritenerci soddisfatti quanto si riescono ad avere almeno cinque anni di
dati e osservazioni, anche se rimane sottinteso che il processo di parametrizzazione andrà avanti nel
tempo, cercando di affinare le capacità previsionali e rendere sempre più affidabile il sistema. In
mancanza di sequenze sufficientemente lunghe di dati, i valori di riferimento potranno essere ricercati
per aree limitrofe, estratti da studi pregressi o da informazioni sintetiche, talvolta anche di tipo
qualitativo.
Nei paragrafi successivi, analizziamo seppur brevemente, quali possono essere le procedure da
seguire per parametrizzare il sistema a partire da situazioni diverse di disponibilità dei dati.
3.1 Stima da dati misurati
Per alcuni parametri può essere sufficiente ricavare un unico valore sito-specifico, ma in generale
ai parametri viene assegnato un valore diverso per ciascun mese. In questo secondo caso la generazione è
più accurata ma la transizione da un mese all’altro risente delle discontinuità legate alla variazione dei
valori dei parametri nel passaggio tra un mese e il successivo.
Le discontinuità nella transizione tra mesi consecutivi possono essere attenuate generando dati
giornalieri del parametro mediante tecniche matematiche basate sull’interpolazione dei valori medi
mensili del parametro stesso. Le tecniche più comunemente utilizzate sono l’interpolazione lineare o
l’interpolazione polinomiale (funzioni spline). In ogni caso il valore medio mensile del parametro è
attribuito al 15° giorno di ciascun mese, ovvero ai giorni 15, 46, 74, 105, 135, 166, 196, 227, 258, 288,
319 e 349.
L’interpolazione lineare prevede una stima giornaliera del parametro (Xi) fra due punti, DOY1 e
DOY2, posti al 15° giorno di un mese (1) e del mese successivo (2):
dove X1 e X2 sono, rispettivamente, le medie mensili del mese 1 e del mese 2. L’interpolazione lineare
viene generalmente utilizzato per la generazione di radiazione solare e temperatura.
L’interpolazione polinomiale ha una applicabilità più generale. Ad esempio in ClimGen (Stöckle
et al., 2001) si fa uso di funzioni spline quadratiche con tre parametri, che hanno il vantaggio di
interpolare monotonicamente tra due punti in cui la derivata prima è zero, mentre è continua nel punto di
transizione tra un mese e il successivo. Per i parametri per cui è prevista una periodicità stagionale è
applicabile il principio delle serie di Fourier. La probabilità di transizione per la determinazione dei
27
giorni asciutti e piovosi possono essere stimate con le seguenti funzioni di Fourier (Woolhiser and
Pegram, 1979):
con
K=365/(2π) - costante di normalizzazione;
Hd , Hw - i numeri delle armoniche stimati per P(d|d) e P(w|d) rispettivamente;
k - numero d’ordine dell’armonica;
Ad, Aw, Cdk, Cwk, Sdk, Swk - coefficienti di Fourier;
i - giorno dell’anno.
I coefficienti sono stimati da una funzione di verosimiglianza delle transizioni osservate per
ciascun giorno dell’anno.
Anche i parametri delle funzioni di distribuzione di probabilità nella generazione delle
precipitazioni tendono a seguire un andamento stagionale periodico. Seguendo la procedura di Woolhiser
e Pregram (1979), una serie di Fourier può essere utilizzata per la stima del parametro λ (inverso della
media delle piogge) della distribuzione esponenziale:
Nello stesso modo, possono essere stimate media e deviazione standard delle temperature
massime e minime per i giorni asciutti e piovosi nella generazione delle temperature (Richardson, 1981):
dove θ(i) è il parametro da stimare per ciascun i-esimo giorno dell’anno.
3.2 Stima da sommari mensili
La stima dei valori dei parametri effettuata a partire dai dati misurati, generalmente, richiede che
questi siano disponibili nella stessa risoluzione temporale per cui è richiesta la generazione (giornaliera,
oraria, semi-oraria, etc.). Alcuni studi hanno però messo in evidenza la possibilità di utilizzare anche
valori mensili per la stima di parametri utili alla generazione di dati giornalieri. Ad esempio in Geng et al.
(1986) si suggerisce di utilizzare la frazione media mensile dei giorni piovosi, p(w), per la stima delle
probabilità di transizione da giorno piovoso a giorno secco e da giorno piovoso a un altro piovoso:
28
dove ν è un coefficiente compreso tra 0 e 1 (generalmente varia tra 0.6 e 0.9, con 0.75 valore più
frequente) e la probabilità p(w) è stimata dalla precipitazione mensile Pm (mm):
dove i coefficienti K e C dipendono dalla distribuzione delle precipitazioni nel corso dell’anno. In tabella
4 sono riportati i valori di riferimento dei due parametri definiti in base a due criteri alternativi.
sì
Criterio
no
K
350
74.58
Estate piovosa
Distribuzione annuale uniforme
C
0.75
1.02
K
120
312
Riferimento
C
1
0.79
Ndlovu (1994)
Angeles (com. pers.)
Tab. 4 – Valori di riferimento dei parametri K e C.
Le località con estati piovose mostrano una correlazione significativa tra le piogge mensili e le
temperature aeree medie mensili. La distribuzione delle piogge nel corso dell’anno si considera uniforme
quando si verificano due condizioni: in nessun mese piove più di 120 mm e la differenza tra la
precipitazione del mese più piovoso e quella del mese meno piovoso è minore di 30 mm. Angeles ha
proposto, in alternativa, la seguente funzione per la stima di p(w/d) e p(w/w):
con i valori di riferimento dei parametri a, b, c e k riportati in tabella 5.
Distribuzione
Uniforme
Non uniforme
p(w/d)
k
a
b
0.0465
0.0821
0.3422
0.6765
32.87
304
c
1.54
1.28
p(w/w)
k
a
b
0.1264
0.1934
1.4164
2.7133
133.21
5149
c
0.799
0.524
Tab. 5 – Valori di riferimento dei parametri a, b, c e k.
3.3 Stima da informazioni qualitative
Anche le informazioni di tipo qualitativo possono essere un’importante fonte di conoscenza, nel
momento in cui si debba caratterizzare un determinato ambiente. Disponendo soltanto di informazioni
qualitative, si possono ottenere valori da utilizzare in via preliminare all’interno dei modelli, assumendo
29
che i risultati, dopo attenta valutazione, possano essere confrontabili con quelli che potrebbe ottenere un
esperto del settore. Nella tabella 6, ad esempio, si lega l’intensità di precipitazione con le osservazioni
dirette di un osservatore, corrispondenti alle classificazioni usate in meteorologia.
Tab. 6 - Valori di riferimento della intensità di pioggia per tipologia di precipitazione
(AWS, 1985; Bonati, 1999).
In assenza di altri riferimenti dalle intensità si può risalire alla stima del parametro α0.5m (frazione
massima media mensile della precipitazione in mezz’ora) del metodo di Arnold e Williams (1989) per la
ripartizione semi-oraria della piovosità giornaliera. La seguente relazione lega l’intensità media di
precipitazione (ip, mm h-1) al valore:
dove Pd
è la pioggia media del mese (pioggia totale in rapporto al numero di giorni piovosi).
Per i dati meteorologici, quindi, si dovranno cercare delle indicazioni precise, possibilmente
codificate all’interno di bollettini ufficiali dell’organizzazione Mondiale della Meteorologia o dei Servizi
Meteorologici/Agrometeorologici. La cosa si complica se le informazioni qualitative raccolte sono
invece relative ad aspetti agronomici o colturali. Questo perché sarà ancora più difficile definire in
maniera obiettiva quale valore debba essere attribuito ad una indicazione qualitativa, del tipo buona o
scarsa produzione, attacco lieve o grave, ecc.
Vediamo quindi di definire nei paragrafi successivi una procedura che potrà essere utilizzata
come base di discussione per una successiva fase di diffusione dell’area di attività del sistema.
3.4 I dati aziendali
La raccolta dei dati richiede tempo e implica spesso costi elevati che inducono gli agricoltori, ma
anche tecnici e operatori specializzati (es. contoterzisti) a non prestare la dovuta attenzione a questi
aspetti, che purtroppo ancora oggi vengono ritenuti marginali se non superflui. In verità, non si può
affermare di conoscere veramente qualcosa se non riesce a quantificarla, ad assegnarle cioè un valore
numerico preciso.
Per superare queste difficoltà iniziali e poter procedere con una certa rapidità ad una prima
30
verifica del sistema, si può tentare una prima quantificazione dei diversi elementi fatta sulla base delle
mera esperienza maturata. L’obiettivo principale in questo caso è quello di avviare il processo di
validazione che condurrà alla generazione di dati su basi note e criteri oggettivi, che dovranno poi essere
completati e migliorati dai dati che verranno raccolti in futuro, in maniera puntuale e rigorosa.
Questo esercizio iniziale può permettere di definire il peso dei diversi parametri e la loro
importanza nella realtà indagata, definendo con maggiore precisione e competenza quali dati siano
essenziali e con quale frequenza spazio-temporale debbano essere raccolti. La risposta a queste domande,
infatti, implica anche valutazioni di tipo tecnico-economico, dipendenti in larga misura da aspetti
specifici che dovranno essere valutati di volta in volta.
Sebbene, infatti, per un’agricoltura avanzata non si possa pensare di prescindere dalla conoscenza
approfondita degli elementi e dei fattori della produzione, si deve sempre ricordare che la gradualità della
transizione può essere un fattore esenziale per il successo dell’iniziativa. Per questo motivo, il consiglio è
quello di preparare un programma di lavoro che garantisca il progressivo approfondimento delle
conoscenze e il corretto popolamento del database, prevedendo poi un piano di monitoraggio e
acquisizione dei dati che sia sostenibile per l’azienda e porti all’ottenimento precoce dei primi risultati
d’interesse operativo.
Tra i primi passaggi da compiere ci sarà quello di acquisire dati sui suoli, sull’orografia e
immagini aeree e/o satellitari aggiornate. Raramente un analisi anche aziendale viene oggi condotta
senza l’ausilio di fotografie aeree o immagini telerilevate, strumentazione GIS, GPS ecc. I principali
elementi che possono essere riconosciuti direttamente dall’immagine aerea sono:
o morfologia del territorio e elementi antropici;
o superfici;
o rete idrica;
o aree erose o soggette a degrado;
o uso del suolo e limiti;
o principali elementi naturali
o aree umide;
o rocce o affioramenti;
o elementi tecnici (densità di impianto, ecc);
o produzioni (quantità/qualità)
o rischi fitosanitari
o …
A questi elementi dovranno comunque esserne aggiunti altri che consentano di comprendere le
cause della variabilità presente nell’area d’interesse. Per ciascun punto o zona ritenuta omogenea si
dovranno acquisire tutte le informazioni richieste per le valutazioni e le simulazioni. La successiva
raccolta di dati e la loro verifica con campagne di controllo è quindi non solo raccomandata, ma in molti
casi assolutamente necessaria per ottenere indicazioni a livello operativo.
31
3.5 I dati colturali
Per la stima delle fasi fenologiche, ad esempio, anche nei modelli più semplici come quelli dei
gradi giorno, un ruolo importante è giocato non soltanto dal dato di temperatura dell’aria misurato
(rappresentatività del sensore, ecc.), ma anche da altri fattori, come la validità delle soglie imposte
(specifiche per ciascuna cultivar), delle osservazioni fenologiche usate per la calibrazione o la presenza
di elementi di disturbo, non considerati dal modello (stress idrici, fotoperiodiche, vernalizzazione, ecc.).
Questo, inoltre, si complica nel momento in cui viene presa in esame la crescita ponderale della
pianta, (biomassa, LAI; produzione, ecc.), con modelli più complessi e, proprio per questi, soggetti ad
errori. Infatti, i modelli richiedono la disponibilità di dati ambientali (temperature, precipitazioni,
radiazione, ecc.), informazioni agronomiche (data di semina, operazioni e lavorazioni, caratteristiche
varietali, ecc.) e fitosanitarie (stato delle piante, percentuali di danni, ecc.), il cui effetto finale sulla
coltura dipende da fattori molto complessi e difficili da valutare con precisione.
Ancora una volta si deve accettare il fatto che le indicazioni iniziali possono essere
“approssimate”, senza tuttavia accontentarci del livello al quale si può giungere dopo una prima
sommaria descrizione della realtà produttiva in esame. Ad esempio, i modelli per la simulazione dello
sviluppo di vite e olivo si avvalgono di informazioni prodotte da altri modelli e quindi rischiano di
portarsi dietro i vari elementi d’errore presenti in questi dati, ma questo non è il solo fattore di
imprecisione.
Per gli operatori del settore e per gli agricoltori è chiaro da sempre che prima di poter affermare di
conoscere una determinata realtà produttiva sono necessari diversi anni di esperienza. Quello che si deve
accettare è che le variabili in gioco hanno effetti combinati, difficili da valutare a priori, e che per poter
essere parametrizzate necessitano di un certo numero di anni e di eventi. Questo numero dipenderà dalle
caratteristiche dei sistemi osservati e dalla variabilità locale dei diversi fattori: condizioni
micrometeorologiche, suoli, gestionali, genetiche, ecc.).
Nel caso in cui si sia sviluppato un modulo colturale, le variabili esterne (più propriamente
ambientali) dovranno essere combinate con quelle interne (più propriamente gestionali o tecniche: data
di semina, operazioni agronomiche, trattamenti, ecc.). Le pratiche colturali sono infatti tese a evitare o
limitare i danni provenienti da condizioni generalmente considerate avverse e non si potrà dire niente
sulla nostra realtà di campo se non si tiene conto degli interventi operati. Si ricordi, ad esempio, che la
carenza idrica del terreno viene normalmente combattuta con l’irrigazione e che quindi in un eventuale
bilancio idrico si dovrà tenere conto di questo decisivo fattore di apporto.
3.6 La fenologia
In diversi modelli di simulazione dei sistemi colturali sviluppati negli ultimi anni (Ritchie et al.,
1984; Van Keulen e Seligman, 1987; Williams et al., 1989; Supit et al., 1994; Danuso et al., 1999; Porter
et al., 2000; Stöckle et al., 2003; Brisson et al., 2003), la crescita della coltura viene legata all’evolversi
32
delle fasi fenologiche. La quantificazione accurata della durata delle varie fasi di sviluppo della coltura è
infatti particolarmente importante nella simulazione della crescita poiché, nelle diverse fasi, la coltura
cambia i processi fisiologici e morfologici. E’ ormai universalmente riconosciuto che la variabile che
maggiormente influenza lo sviluppo fenologico, con il passaggio da una fase all’altra, è la temperatura.
Per questo motivo il sistema AgroSmart, pur nella sua semplicità concettuale, rappresenta un
elemento di particolare interesse, consentendo di “seguire” la risposta che la pianta può avere nelle
diverse condizioni micro-ambientali, cioè nelle sotto-zone d’interesse, riconosciuto nel corso dell’analisi
preliminare.
I principali modelli si basano sul calcolo delle sommatorie termiche, espresse in gradi giorno (°C ),
effettuate a partire da un determinata data o da considerazioni esterne al modello (vernalizzazione,
germogliamento, semina, ecc.). In molti casi è inoltre possibile introdurre dei fattori di correzione legati
ad eventuali stress (es. idrici) in modo da correggere le date in funzione di fattori noti (es. misure in
campo, lunghezza del fotoperiodo, ecc.). Il loro utilizzo è quindi fortemente auspicabile, poiché permette
al sistema di essere maggiormente aderente alle condizioni reali, pesando anche le specificità di ciascuna
condizione.
Nei modelli fenologici visti si possono prendere in esame sia le soglie termiche (min e max) da
utilizzare per ciascuna fase per il calcolo dei gradi giorno cumulati (GDD, Growing Degree Days, °C ),
sia la soglia finale da utilizzare come indice del raggiungimento delle più importanti fasi fenologiche.
Volendo produrre indicazioni più interessanti dal punto di vista operativo, si possono confrontare
i diversi metodi con le osservazioni di campo, possibilmente effettuate con cadenza inizialmente
settimanale, e successivamente diradata, fino ad essere riportata a sporadiche osservazioni sulle fasi note.
Questo consentirà di calibrare il modello e di riconoscere eventuali condizioni anomale che possono
verificarsi nel corso dello sviluppo (es. ritardi legati a stress idrici). Per il corretto calcolo dei gradi giorno
conviene inoltre tener conto della precisione del sensore di temperatura: sebbene una precisione di 0.5 °C
sulle misure di temperatura dell’aria è normalmente accettabile per molti modelli, questa non può essere
considerata irrilevante nel calcolo dei gradi giorno, ma il suo peso può essere ridotto considerando
modelli che si basano su valori orari. Infatti, se consideriamo soltanto un valore giornaliero, il peso di
una sua esclusione o meno dal calcolo, in base alla regola delle temperature soglia impostate, è molto più
elevato di quanto non avvenga a scala oraria (ricordiamo che se la temperatura media risulta fuori dal
range imposto l’incremento è posto uguale a zero).
3.6.1 Alcune considerazioni sull’effetto dello stress idrico sulle fasi fenologiche
È noto che eventuali stress possono modificare la velocità di accumulo dei gradi giorno e la
risposta della pianta alla temperatura. Dato che l’effetto dello stress (es. idrico) è diverso a seconda se la
pianta è in fase vegetativa o in fase di accumulo, rendendo più lunga la prima o riducendo la durata della
seconda, si può pensare di correggere il tasso di accumulo dei gradi giorno (GG) in funzione della fase
fenologica in atto, introducendo un fattore di stress, Ks. Dalla semina alla fase vegetativa l’accumulo dei
33
gradi giorno (GG), potrebbe essere corretta semplicemente con:
GGcor = Ks GG
mentre dall’inizio della fase di fioritura alla maturazione, invece l’accumulo dei gradi giorno potrebbe
essere corretta secondo la relazione:
GGcor= GG (2 - Ks)
dove il fattore di stress, Ks, è calcolato soltanto se vi è una condizione di stress idrico(Ur<Us)
Ks = (Ur-Pa) / (Us-Pa)
con Ur umidità dello strato radicale del terreno, Us umidità soglia per lo stress idrico e Pa punto di
appassimento per la coltura.
Naturalmente se non vi è la condizione di stress idrico (Ur>Uz) il valore di Ks è posto pari a 1.
3.6.2 Effetto vernalizzazione
Il fattore di vernalizzazione, tipicamente proprio della risposta delle piante arboree e dei semi
all’andamento termico del periodo invernale e, come già descritto nel nostro primo rapporto, può avere
una grossa influenza sulla velocità di ripresa vegetativa e quindi sulla comparsa delle diverse fasi
fenologiche.
Per l’olivo questo fattore è particolarmente rilevante e, oltre ai modi già descritti, potrebbe essere
pesato in maniera indipendente, introducendo un fattore specifico Ev, pari o maggiore a 1, se si è avuto il
raggiungimento del fabbisogno in freddo, o uguale a zero, se questa condizione non si è verificata. Il suo
valore è calcolato sulla base dei giorni cumulati di vernalizzazione, VDsum, e specificamente:
VDsum > VDstart Æ Ev = (VDsum – VDstart) / (VDend – VDstart)
VDsum ≤ VDstart
Æ Ev = 0.
dove VDstart e VDend, rappresentano i valori soglia, tipici per la coltura in esame:
o VDstart , soglia di giorni vernalizzazione cumulati in corrispondenza della quale viene attivato
il fattore di vernalizzazione;
o VDend, soglia di giorni vernalizzazione cumulati in corrispondenza della quale si considera
completato il processo e la fioritura può avere luogo.
L’accumulo dei giorni di vernalizzazione, VDsum, avviene secondo un tasso (Vi) dipendente dalla
temperatura media (Tmed). L’accumulo ottimale si ha per valori della temperatura media compresi tra le
due temperature (Tl e Th); in questo intervallo il tasso di accumulazione giornaliero è massimo ed è pari ad
1 (Fig. 1). Il valore del tasso di accumulo diminuisce linearmente quanto più la temperatura si allontana da
questo intervallo, fino ad assumere valore pari a zero per temperature inferiori a Tl-7 o superiori a Th+7.
34
Fig. 1 – Andamento del tasso di accumulo Vi in funzione della temperatura
Si può avere luogo anche un processo di vernalizzazione inversa (Hodges, 1991), che riduce il
valore dei giorni di vernalizzazione cumulati; il tasso di vernalizzazione inversa (Vr) è legato alla
temperatura massima (Tmax) attraverso un fattore di proporzionalità (VrFact) specifico per coltura:
Vr = VrFact (Tmax - 30)
L’equazione che descrive l’accumulo dei giorni di vernalizzazione è quindi data da:
VDsum = ∑ j (Vi + Vr )
3.6.3 Crescita di una coltura
La crescita di una coltura, in linea di massima, può essere distinta in otto fasi, considerando
anche la fase di stasi invernale:
0 – assenza della coltura (o fase di stasi invernale);
1 – fase di emergenza (o della ripresa vegetativa);
2 – fase iniziale di crescita vegetativa;
3 – fase vegetativa (dalla crescita crescita vegetativa alla fioritura)
4 – fase della fioritura;
5 – fase di accumulo
6 – fase di maturazione (maturazione fisiologica)
7 - attesa raccolta (piena maturazione)
Il passaggio da una fase all’altra avverrà al raggiungimento delle soglie termiche specifiche per
ogni fase della coltura in esame. In quasi tutti i modelli, compresi quelli da noi indicati, il tasso di crescita
stimato dovrà essere fatto corrispondere al valore massimo in quelle determinate condizioni, cioè senza
alcun fattore aggiuntivo di stress o senza l’azione di una fattore limitante. Dopo aver definito le
condizioni ottimali di crescita e aver fatto girare il modello, i valori prodotti potranno servire come
termine di paragone per le successive simulazioni. Questo consentirà di fare dei confronti tra andamenti
35
climatici diversi, a parità di altri fattori che potranno e dovranno essere pesati a parte, agendo come
elementi di riduzione del valore potenziale atteso.
I valori di produzione locale, almeno in una prima fase, non potranno essere utilizzati come valori
assoluti (Kg/pt o t/ha), ma dovranno piuttosto essere espressi come valori percentuali; si avrà quindi che
per una certa specie, in un dato momento, alcune piante saranno sviluppate (o avranno prodotto) il
massimo possibile in quelle condizioni (100), mentre altre avranno valori decrescenti. Questo consentirà
non soltanto di confrontare le diverse condizioni esistenti nello spazio, tra zone diverse, ma anche di fare
confronti nel tempo, una volta individuata la condizione (scenario climatico) da utilizzare come
riferimento.
Disponendo di dati e osservazioni, si potranno considerare i periodi corrispondenti alle diverse
fasi fenologiche e individuare le condizioni ottimali relative, confrontandole con un anno ottimale
teorico, ma anche ripercorrere anni reali per verificare la validità dei modelli nelle diverse fasi.
3.6.4 Fattore di correzione della crescita per carenza idrica
Seguendo un approccio di tipo empirico, l’effetto negativo dello stress idrico sulla produzione
dipenderà dalla fase fenologica in cui questo si verifica. La sua intensità potrà essere espressa dalla
relazione tra evapotraspirazione reale e massima:
Fws = Ky [1- (ETa/ETm)]
La diversa sensibilità allo stress idrico del tasso di crescita della coltura in funzione della fenofase
potrà essere quantificata tramite dei coefficienti di risposta produttiva Ky (Doorembos e Kassam, 1979).
Il valore di Ky durante la simulazione viene ottenuto attraverso una funzione (Fig. 2) costruita
utilizzando cinque parametri, specifici per la coltura in esame, e corrispondenti a cinque distinte fasi
della fenologia: emergenza (GDDem), completa copertura del suolo (GDDsc), inizio della fase di
fioritura (GDDfl), inizio della fase di accumulo (GDDac) e maturazione fisiologica (GDDmf).
Fig. 2 – Andamento della funzione in funzione dei gradi giorno cumulati per fase (GDD)
36
3.6.5 Fattore di correzione della crescita per senescenza
Nel caso di piante arboree il valore del fattore di correzione per senescenza (Fs) può essere fatto
dipendere dall’età della pianta, assegnando al periodo di massimo vigore e sviluppo un valore unitario
(Fs=1) e valori inferiori all’unità nei periodi precedenti e successivi a questo.
Nel caso di una coltura erbacea il fattore di senescenza è unitario, finché non si arriva alla fase di
accumulo, corrispondente ad una quantità di gradi giorni cumulati pari a GGac, , in prossimità della quale
il fattore decresce esponenzialmente di un fattore 30, tendendo rapidamente a zero e annullando in
pratica il tasso di crescita (Donatelli et al.,2007):
Fs = 1 / [1+(GG/ GGac)30]
3.6.6 Ripartizione della biomassa prodotta
Se si dispone di modelli (vedesi olivo) in grado di stimare la produzione di biomassa in funzione
della radiazione incidente, per definire come la sostanza organica si distribuisce tra i vari organi della
pianta, si possono utilizzare alcuni semplici rapporti o assegnare una percentuale più o meno fissa,
dipendente dalla fase di sviluppo presa in esame.
In linea del tutto indicativa, possiamo assumere che in pieno sviluppo, nelle fasi precedenti alla
fruttificazione, si possa assegnare alle radici un 30-40 % della biomassa totale, mentre nella fase
successiva (fruttificazione) potrebbero essere previsti valori intorno al 20 % per le radici, al 25 % per la
parte verde (fusto e foglie) e del 55 % per i frutti.
Il grafico di figura 3 mostra i risultati di alcune prove condotte sull’olivo da ricercatori
dell’Università degli Studi della Basilicata (Palese et al., 2004).
Fig. 3 – Ripartizione della biomassa tra parte epigea e ipogea nel corso dello sviluppo dell’olivo
(Palese et al., 2004).
37
4 Collegamento dei modelli previsionali con quelli fenologici e di stima del rischio
Dopo aver richiamato nei capitoli precedenti i principali elementi legati alla possibilità di
effettuare delle previsioni sull’effetto delle principali grandezze fisiche sulla crescita o sulla produzione
delle piante, analizziamo come rendere organico il flusso di dati e informazioni tra le diverse componenti
del sistema. Secondo uno schema generale, suggerito nel corso dei nostri incontri, il flusso di dati e lo
scambio tra i modelli potrebbe essere rappresentato dalla figura seguente:
Fig. 4 – Schema generale del sistema AgroSmart realizzato da Tosco Dati.
Al sistema centrale giungono le informazioni provenienti dalla rete di monitoraggio
micro-agrometeorologica, da eventuali stazioni agrometeorologiche esterne, dall’utente e da altre fonti
che possono scambiare dati con esso attraverso la rete WEB. Queste informazioni saranno inserite,
previa valutazione della loro validità e congruità, all’interno della banca dati del sistema, che in qualche
misura ne rappresenterà il cuore pulsante, alla quale potranno accedere i modelli per le loro elaborazioni.
Pur sapendo che anche in fase operativa sarà necessario apportare correzioni e si dovranno
prevedere degli aggiornamenti, nella nostra disamina cercheremo di prendere in considerazione una
configurazione tipo, il più completa possibile.
Lo schema di figura 5 riassume quelli che sono i passaggi principali definiti fino a questo
momento. Le linee più marcate, in nero, rappresentano il flusso di elaborazioni principali, che si affidano
principalmente ai dati raccolti dalle stazioni Agro-Smart. I dati meteorologici provenienti dalle stazioni e
dai nodi sensori potranno essere utilizzati direttamente o spazializzati, per la ricostruzione
dell’andamento micro-meteo su punti d’interesse non direttamente monitorati.
38
Rete
AgroSmart
Temp.
UR
Rad
Vento
Pioggia
Stazioni
meteo
Altri
sensori
Temp.
UR
Rad
Vento
Pioggia
T. suolo
URSuolo
Bagnat. Fgl
Cartografia
digitale
Suoli
Idrologia
DEM
Quota
Esposizione
Pendenza
Servizio
Agrometeo
Immagini
aeree/satell.
Previsioni meteo
Serie Storiche (S)
Uso del suolo
Copertura
Indici Veget.
LAI
Aggiorn.catast
….
Osservazioni
Fenologiche e
Fitopatologiche
….
Osservaz.
in campo
% fenologiche
% sviluppo
% danno
Parametri cv.
Utente
Agricoltore
Data impianto
Tecniche colt.
Interventi
Età pt.
Resa Pt.
Filtro e trattamento: completamento series, esclusione dati anomali e incongruenze
Dati per modelli
specifici
Prima integrazione dati
meteo: per punti o per
spazializzazione
Serie Storica (S) anche
da dati spazializzati.
Analisi scenari:
Positivo, Medio,
Negativo
Generatore dati meteo
meteo: per punti o per
spazializzazione
Dati per modelli
specifici
Seconda
integrazione dati meteo:
Completamento serie con
dati previsti a 3 / 7 giorni
Elaborazioni specifiche:
Riduz. % biomassa;
Rif. % efficienza;
Rid % Produzione
Terza integrazione dati
meteo:
Completamento serie con dati
P, M o N a fine ciclo.
Integrazione
osservazioni
Quarta integrazione dati
meteo:
Completamento serie con dati
previsti su n anni.
Estrazione dei dati per i
punti e i periodi
d’interesse
Produzione
Mod. Lobelia – mod.Uncinula
Mod. Plasmopara – Mod.Botrytis
Mod. Bactrocera
Mod. Prays
Fioritura
Mod.Gelate
Indici Stress idrico
Altri indici
Mod. OLIVO
Mod. VITE
Fioritura
Produzione
Stime
Fig. 5 – Schema del flusso di informazioni del sistema.
39
Per la spazializzazione potranno essere utilizzati metodi geostatistici, implementati anche sotto
software GIS, in grado di dare un peso ad aspetti geografici e morfologici (per approfondimenti vedesi
materiale relativo a “Cartografia Digitale e Modellistica GIS”). In questo modo si potrà procedere
indifferentemente, sia lavorando sulle matrici sia operando sui punti, con semplici serie di dati.
Le serie di dati dovranno essere complete per il periodo d’interesse e la spazializzazione sarà
preferibile ad altre tecniche nel momento in cui si dovranno ricreare lunghe serie di dati a partire da
poche stazioni sul territorio. Un’alternativa a queste procedure è offerta dalla spazializzazione del
risultato finale delle elaborazioni effettuate in maniera puntuale. I risultati di una tale procedura possono
anche essere soddisfacenti, ma si dovrà fare attenzione a considerare sempre aree omogenee per tutti i
fattori forniti in input al modello o ai modelli.
Disponendo di previsioni meteorologiche e di dati spazializzati a scale diverse da quella alla quale
normalmente si opera, bisognerà procedere con le classiche tecniche di down-scaling, infittendo i punti
della griglia fornita dal servizio ed estraendo i dati relativi ai punti d’interesse.
In questa fase il valore aggiunto dato dal disporre di tre o sette giorni di previsioni viene annullato
dalla necessità di validare i modelli e importare parametri attendibili. Previsioni utili dal punto di vista
operativo possono essere ottenute anche effettuando delle simulazioni che tengano conto delle
indicazioni qualitative fornite dai servizi. Questa procedura, che non potrà essere automatica, può dare
tuttavia un notevole valore aggiunto al servizio.
Più interessante, invece, appare la creazione di tre anni “tipo” a partire da serie storiche
disponibili per la zona in esame, da usare come riferimento di condizioni che siano in grado di dare delle
informazioni immediate: condizione migliore, peggiore e intermedia. Questo permette di ipotizzare una
forchetta di possibilità all’interno dalla quale si troverà anche la nostra situazione reale. Ovviamente, ma
mano che si riduce il tempo di previsione, la validità delle nostre considerazioni aumenta in maniera
esponenziale.
Se vi è poi la necessità di effettuare elaborazioni su più anni, anche a fini statistici o di
programmazione, ad esempio per scegliere la cultivar più adatta tenendo conto del possibile effetto del
cambiamento del regime termico previsto per i prossimi decenni, si potrà ricorre ai “weather generators”.
A questo punto, disponendo di tutti i dati necessari, si potranno effettuare le simulazioni richieste, per
prima cosa facendo girare i modelli disponibili per la vite e per l’olivo con le informazioni fornite
dall’utente per ciascun punto (o area) d’interesse. I risultati così ottenuti rappresenteranno tuttavia ancora
delle condizioni teoriche, che per essere riportate alla realtà del territorio dovranno essere corrette in
funzione delle osservazioni disponibili. Posta uguale a 100 la produzione prevista dal modello, ad
esempio, si dovranno apportare delle riduzioni percentuali in base alla non ottimale copertura del terreno,
dovuta a situazioni specifiche o alla presenza di danni legati a stress non altrimenti presi in
considerazione.
Nella fase di messa a punto del sistema, al termine di questo processo, si dovranno confrontare le
nostre stime con i valori a disposizione dell’utente e discutere sulla validità delle nostre procedure.
40
4.1 Previsione fenologica e della produzione
Avendo a disposizione i dati provenienti dalle stazioni micro-meteorologiche della rete
AgroSmart, la prima cosa da fare è la verifica delle differenze tra le aree dell’azienda in esame e il punto
rappresentato dalla stazione agrometeorologica completa. La caratterizzazione e la conoscenza dei nostri
punti e più in generale delle diverse zone dell’azienda (o del campo) è essenziale per poter effettuare
delle stime realistiche, in grado di dare un contributo dal punto di vista operativo. Questo è tanto più vero
se si pensa che, al di la del valore medio finale, la variabilità interna all’oliveto o al vigneto è in gran parte
il frutto della variabilità di fattori che non si modificano facilmente nel tempo: suolo, esposizione, ecc..
Vi è quindi la necessità di calibrare il nostro modello per ciascun punto, attraverso una
parametrizzazione puntuale dei diversi fattori che intervengono nel determinare la risposta della pianta.
Una volta messo in grado il modello di fornire delle simulazioni realistiche della risposta della pianta,
almeno rispetto alle situazioni passate, si potrà procedere con l’introduzione di dati meteorologici
previsti nel breve (0-7 giorni) , medio (8-30 giorni) e lungo periodo (>30 giorni).
A questi tre diversi periodi corrispondono anche diversi livelli di affidabilità della previsione, che
dipendono anche dalla variabilità dei fenomeni (es. la pioggia è più difficile da prevedere dalla
temperatura, ecc.) Per la fenologia, fino a 3 giorni, la previsione può essere considerata valida al 85-90 %,
ma dopo tale periodo ci si deve aspettare un decadimento molto rapido. Verso il settimo giorno
potremmo già parlare di un 70 % al quale seguono valori assolutamente insoddisfacenti se si intendono
fare previsioni su tempi più lunghi.
Anche se a livello della ricerca si propongono oggi delle “previsioni stagionali”, si può dire che la
loro validità non è ancora stata completamente dimostrata e conviene mantenere una certa prudenza.
Questo non significa, però, che non è possibile dare delle indicazioni di interesse pratico per gli
agricoltori o per gli operatori del settore. Utilizzando gli scenari, si può definire una forchetta entro la
quale si troverà il valore atteso. In questo modo si possono avere delle indicazioni di come si sta
sviluppando l’annata e di cosa si può attendere in termini di quantità e talvolta di qualità dei prodotti.
Naturalmente, anche in questo caso la validità della previsione migliora man mano che aumentano i dati
certi e si riducono quelli stimati. Volendo rappresentare graficamente il sistema di previsione, si può
descriverlo come una linea continua fino all’ultimo dato certo, che rappresenta la realtà fino a quel dato
momento, e che prosegue dividendosi in due linee sempre più lontane tra loro.
Una maggiore validità statistica si ottiene generando un numero statisticamente significativo di
scenari e analizzando la probabilità che ciascuno di questi si verifichi. Sarà difficile che si verifichi un
anno pessimo, così come accadrà raramente un anno ottimo, ma in generale il valore atteso sarà da
prendersi intorno al 70 % di tutti gli andamenti possibili.
Ponendo di disporre di tre modelli che simulano la fenologia dell’olivo (A) e di tre che simulano
quella della vite (B), graficamente si può immaginare una situazione del tipo di quella riportata nella
figura 6.
41
Fig. 6 – Andamento della crescita di una coltura con evidenziato la rappresentazione a forchetta in
funzione dei tre scenari (medio, migliore e peggiore) per olivo (A) e vite (B), a partire dalla
data di semina.
Man mano che la simulazione si avvicina alla data di raccolta, il valore sarà sempre più
rappresentativo e la forchetta sempre più stretta (Fig. 7). In questo modo si ottengono previsione a 15-30
giorni sufficientemente attendibili per poter guidare una serie di azioni in campo.
Fig. 7 – Andamento della crescita di una coltura con evidenziato la rappresentazione a forchetta in
funzione dei tre scenari (medio, migliore e peggiore) per olivo (A) e vite (B), a metà ciclo.
Prendiamo a titolo d’esempio un caso operativo, quello del modello DELPHI, per la stima della
resa e dalla qualità del grado duro, prodotto della collaborazione tra CNR-IBIMET e Barilla (Miglietta e
42
Ranieri, 2008). Da un punto di vista operativo, il sistema DELPHI, utilizzato inizialmente nella vasta
area della Capitanata in Puglia e in seguito esteso anche ad ampie aree della Basilicata, delle Marche e
della Toscana, è gestito in modo interattivo da uno o più operatori specializzati e da una squadra tecnica,
responsabile della rete meteorologica proprietaria. Nel periodo di semina del frumento vengono raccolte
più informazioni possibili (date di semina, quantità di fertilizzante, ecc.), per una corretta descrizione
delle “condizioni iniziali” della simulazione. Successivamente vengono poi verificate le previsioni del
modello sulle condizioni di crescita della coltura in campo. Negli ultimi tre mesi del ciclo produttivo si
effettuano una serie di previsioni sulla base di scenari che servono ad orientare l’azienda verso l’esito più
probabile dell’annata agraria in corso.
Il sistema previsionale DELPHI si basa su un approccio semplificato che considera l’andamento
meteorologico medio come quello che si verificherà con maggiore probabilità fra la data attuale di
redazione del rapporto e la data prevista per la raccolta. La procedura prevede quindi di aggiungere a
questo andamento meteorologico previsto, uno scenario fortemente siccitoso e caldo ed uno invece
umido e più fresco. Le simulazioni fatte sulla base di questi due scenari generano quindi la “forchetta”
entro la quale si assume dovrà ricadere l’esito reale della produzione di frumento in campo. Quando le
indicazioni divengono più stabili e le previsioni iniziano a convergere verso un punto è il momento in cui
la previsione di DELPHI assume una valenza strategica per il committente industriale che, sulla base
anche di altre informazioni e conoscenze di mercato, può cominciare ad orientare la propria strategia di
acquisizioni di frumento duro sui vari mercati nazionali o internazionali (Maglietta e Ranieri, 2008).
Fig. 8 – Esempio di rappresentazione spaziale effettuata con il modello DELPHI delle previsioni di resa
(t/ha) del grano duro, per la provincia di Foggia (1998/1999).
Nel caso in cui il modello preveda produzioni molto elevate o molto scarse (es. annata agraria
2000-01), l’industria può anticipare il mercato, con opportune scelte di vendita o acquisto. Lo stesso
principio vale per gli aspetti qualitativi, ovvero il previsto contenuto proteico della granella di frumento
duro. Il ricorso all’acquisto di grani ad elevato contenuto proteico può infatti essere modulato in anticipo
sulla base di previsioni di qualità a scala regionale o nazionale. Le figure 9 e 10 mostrano i risultati di un
43
decennio di applicazione del modello, con un’approssimazione ritenuta soddisfacente sia a livello
territoriale che a livello di singola stazione.
Fig. 9 – Confronto tra produzione stimata con DEPHI e misure
in campo (Barilla) e rilevazioni annuali (ISTAT) I valori sono
tutti spazialmente consistenti fra loro poiché si riferiscono a
medie territoriali aggregate a livello regionale.
Fig. 10
– Confronto diretto fra dati produttivi simulati con
DELPHI e osservazioni in campo (test varietali MIPAAF).
Si può notare la sensibilità del modello a condizioni molto particolari, come quelle che si sono
verificate, ad esempio, nel 2003, anno noto per la straordinaria ondata di calore che lo caratterizzò.
Anche in questo caso, le simulazioni sono ritenute sufficientemente affidabili a livello operativo e
DELPHI continua ad essere uno strumento previsionale di buona qualità, capace di garantire un buon
servizio all’utenza.
4.2 Previsione fitopatologica
Alcune ricerche hanno dimostrato che un aumento delle temperature, indotto dai cambiamenti
climatici, avrebbe un effetto immediato sulla produzione di vino e olio, sia in termini quantitativi sia in
termini qualitativi e di areale (Nemani et. al, 2001; Jones et al., 2004). Questi cambiamenti avrebbero
comunque effetto anche sulle specie patogene o parassitarie che, anche grazie alla loro dinamicità e
velocità riproduttiva) si mostrano molto più sensibili a variazioni anche di relativamente breve durata.
In quasi tutti i settori afferenti al comparto agro-forestale, infatti, si sono osservate variazioni non
soltanto della frequenza e gravità degli attacchi, ma anche una loro rapida diffusione in zone dove in
precedenza non erano state rilevate. Nel fare questa analisi, si deve tener ben presenti le interrelazioni che
esistono tra gli organismi (ospite e parassita), del ciclo biologico e dei passaggi obbligati che questo
comporta.
La tignoletta della vite (Lobesia botrana Denis & Schiffermuller, Fig. 11), ad esempio, è molto
diffusa nelle aree viticole italiane e più in generale in tutto il bacino del Mediterraneo. Nel resto
dell’Europa la sua presenza è limitata ai microclimi più caldi, ma è presente anche in Medio Oriente ed in
Giappone. Oltre alla vite, questo lepidottero attacca anche fiori, foglie e frutti di piante spontanee e
44
coltivate della macchia mediterranea come l’olivo, il ribes, Rhamnus, Cornus, Lonicera, Viburnum, il
giuggiolo, il corbezzolo, il ligustro, il mirto e il rosmarino. La pianta spontanea preferita sembra essere la
Dafne (Daphne gnidium), ritenuta l’ospite originario di questa tignola.
Fig. 11 – Ciclo biologico della tignoletta della vite.
Limitandoci alla vite, ricordiamo che la prima generazione della Tignoletta generalmente non
causa danni, ma provoca solo un diradamento dei bocci fiorali senza diminuzione di produzione. Le larve
più dannose sono quelle della seconda e terza generazione, mentre quelle della quarta possono interessare
l’uva da tavola coperta per la raccolta ritardata.
Il danno è legato al grado di maturazione degli acini e all’andamento climatico. L’erosione degli
acini può essere sia superficiale sia con gallerie e portare ad un loro rapido disseccamento nel caso siano
acerbi e il clima rimanga secco (seconda generazione). Altrimenti dopo l’invaiatura e con clima umido
sulle ferite si insediano funghi (botrite e marciumi acidi) ed insetti saprofagi (Ditteri Drosofilidi o
moscerini, Coleotteri Carpofili, ecc.) che incrementano il danno.
Per la lotta biologica e per una razionale lotta tradizionale è necessario sfruttare al meglio i fattori
naturali ed agronomici di limitazione nonché conoscere l’andamento di popolazione dell’insetto. Non è
detto, infatti, che ad un aumento delle temperature corrisponda necessariamente anche un aumento del
rischio di attacco o del danno prodotto. Anche con l’ausilio dei modelli fenologici, come il DS (Delay
Simulator) messo a punto dal gruppo del Prof. M.Severini (Severini et al., 2005), si è mostrato come non
necessariamente ad una risposta positiva della pianta debba corrispondere un aumento del rischio e
quindi la necessità di procedere ad ulteriori trattamenti.
45
Applicando il modello DS per simulare l’effetto delle temperature medie giornaliere sulla
fenologia della vite (Vitis vinifera L.) e del suo insetto parassita la tignoletta della vite (Severini et al.,
2005), si è visto che per gli anni 1987-1990, in corrispondenza di un aumento di temperatura la qualità
del vino è effettivamente migliorata, mentre il pericolo degli attacchi della lobesia ai vigneti del Frascati
non è aumentato in maniera significativa.
I cicli annuali della vite e del litofago sono rappresentati schematicamente in Fig. 12, dove è
mostrato che i cicli procedono paralleli nel tempo. Entrambi i modelli, quello della vite e della tignoletta,
hanno come variabile forzante la temperatura ambiente, e come variabile di stato la densità di
popolazione.
Fig. 12 – Schema del susseguirsi dei cicli vitali della vite e della tignoletta (Severini et al., 2005)
C- Crisalide, A - adulto, U - uova, L- larva.
I risultati delle simulazioni della fenologia della vite nella zona dei Castelli Romani durante il
quadriennio 1987-90 mettono in evidenza una differenza di 15 giorni tra l’inizio della maturazione più
precoce (1988) e quella più tardiva (1987) e una differenza di 37 giorni tra la fine più precoce della
maturazione (1988) e quella più tardiva (1989). Nel 1989 il periodo di maturazione (il più lungo) è durato
146 giorni, mentre nel 1987 (il più breve) 106 giorni: 40 giorni di meno.
Dalle simulazioni della fenologia di L. Botrana negli stessi anni, si deduce che nella zona
d’interesse si sono avute tre generazioni; poiché l’insetto è dannoso allo stadio larvale si devono
analizzare i periodi di sovrapposizione tra la durata della seconda e quelle della terza generazione: tre
settimane nel 1988 e due nei restanti anni.
Nella figura 13, infine, sono riportati i confronti, per ciascun anno, tra i periodi in cui sono
presenti le larve e quelli in cui si hanno i fiori ed i grappoli organi attaccati dal fitofago. Le barre verticali
grigie evidenziano i periodi di sovrapposizione tra lo stadio più pericoloso dell’insetto e le fenofase
maggiormente recettive della vite. Si presuppone che, maggiore è la lunghezza di detto intervallo di
tempo più è elevato il rischio associato al parassita. La sovrapposizione maggiore si osserva nel 1988,
anno che è stato presumibilmente quello più a rischio per i danni da tignoletta. Non sembrano essere mai
significativi gli attacchi da parte delle larve di l° generazione durante la fioritura della vite.
46
Fig. 13 – Simulazione del sistema vite-tignoletta. Le barre grigie indicano i periodi di sovrapposizione tra
le larve e le fenofasi della vite più danneggiate dall’insetto (fiori e frutti maturi)
In tabella 7 sono riportate le durate di sovrapposizione delle larve di 2° e 3° generazione, il
periodo di presenza delle larve di 3° ed il loro rapporto (α) considerato come una stima approssimativa
del rischio.
Tab. 7 – Valori del rischio associato agli attacchi di tignoletta (α). La durata delle sovrapposizioni ed il
periodo di presenza delle larve di terza generazione sono espressi in giorni (d)
4.3 Indici ambientali e di stress
La previsione agrometeorologica basata sull’impiego di indici climatici, quali quelli relativi al
rischio di gelata, o ad eventi meteorologici avversi, con la presenza di condizioni che impediscano di
effettuare specifiche lavorazioni o interventi, richiede una trattazione a parte. Infatti, se la previsione è
fatta per “guidare” specifiche azioni in campo, come la lotta alle gelate o la programmazione degli
interventi, anche un avviso di poche ore può essere importante. In questo caso quindi la disponibilità di
previsioni meteorologiche a scala compatibile con le esigenze aziendali è fortemente raccomandata.
Sfortunatamente, queste previsioni sono scarsamente diffuse ed è generalmente irrealistico prevederne
l’impiego, senza la partecipazione diretta di enti locali o regionali preposti a tale funzione.
Il servizio regionale del Veneto (ARPAV – Agenzia Regionale per la Prevenzione e Protezione
47
Ambientale del Veneto) ha attivato un progetto, denominato ANGELA (Algoritmo di Nowcasting per le
Gelate) con il quale intende fornire un supporto tecnico ai frutticoltori nella difesa dalle gelate precoci e
tardive. Gli agricoltori e i tecnici, in caso di previsioni di temperatura al di sotto dello zero, possono
seguire in tempo reale (messaggi SMS e/o mediante collegamento al sito internet), l'evolversi del quadro
meteorologico, decidendo i tempi e le modalità di eventuali intervento con metodi di difesa antigelo.
Lo stesso modello è utilizzato anche in Friuli Venezia Giulia e si basa su un algoritmo molto
semplice, quello di Reuter (1949), che descrive l’andamento della temperatura al suolo durante la notte in
funzione del tempo:
Tn = Ttram - k(n)· 0.5
dove
Tn è la temperatura a n ore dal tramonto;
Ttram è la temperatura al tramonto;
k è il coefficiente di decadimento della temperatura in funzione del tempo;
n è il numero di ore trascorse dal tramonto.
Una volta determinato il coefficiente di decadimento della temperatura, è possibile stabilire il
momento in cui la temperatura scende sotto lo zero. Se ciò si verifica prima dell’alba, si avrà la gelata.
Con la medesima formula, noto il coefficiente di decadimento e la durata della notte, è possibile stabilire
anche l’intensità della gelata (temperatura minima assoluta).
L’algoritmo di Reuter, come molti altri algoritmi comunemente usati in questo campo, ipotizza
che la temperatura notturna diminuisca secondo un certo profilo, ma in realtà la velocità di decadimento
della temperatura può essere accelerata o ritardata in seguito al variare delle condizioni meteorologiche
(copertura del cielo, ventosità, …).Per questo motivo, nel modello ideato dal CSA, ogni ora viene
effettuata una verifica delle temperature effettivamente raggiunte ed il sistema viene eventualmente
ritarato. Dal punto di vista operativo ANGELA è attivato al tramonto, quando viene effettuata una prima
stima del coefficiente di decadimento termico k sulla base dei dati misurati nelle stazioni e delle
temperature minime previste per la notte dai previsori. Per ogni stazione viene così costruita una prima
curva di decadimento della temperatura. Allo scadere di ogni ora successiva al tramonto, sulla base della
temperatura effettivamente misurata e dello scostamento tra questa e la temperatura prevista nell’ora
precedente, è corretta l’equazione di decadimento della temperatura. Nella correzione della curva di
decadimento si tiene conto anche delle temperature contemporaneamente misurate nelle altre stazioni
meteorologiche della rete.
Il modello è stato verificato su 1675 casi con temperature minime inferiori a 0 °C registrati dal
1990 fino al 1998 in 10 stazioni della pianura friulana nei mesi di marzo, aprile, ottobre e novembre.
L’accuratezza delle previsioni, definita come differenza tra la temperatura prevista e quella misurata, è
tanto migliore quanto più le temperature previste sono vicine nel tempo. Infatti, nelle previsioni a un’ora
più del 50 % delle differenze tra temperatura prevista e misurata sono comprese tra +1 e –1 °C, mentre a
6 ore in questa classe vi sono solo il 30 % dei casi e a 12 ore il 20%.
48
L’indirizzo imposto al modello è, come visto anche in altri casi, di tipo prudenziale, nel senso che
si tende a un numero di casi superiore a quello realmente osservato e a generare “falsi allarmi”, per
limitare al minimo il rischio di eventi avversi non previsti e quindi il verificarsi di danni alle colture.
4.4 Integrazione
Nella figura 14 è rappresentato il flusso di dati e lo scambio previsto all’interno del sistema, tra i
dati meteorologici, quelli fenologici e quelli fitopatologici, cercando di mantenere la stessa schematicità
vista in precedenza.
Serie meteorologica complete /reali + previsti
GER, BLO, MAT, LAG, NS,
PLA, COV, EFF , SLOPE,
K, a, , c
Soglia vernalizzazione, Soglia
fioritura, soglia maturazinone
Efficienzuso radazione
Mod. Olivo
Mod. Vite
Mosca
Tignola
Data Ripresa vegetat.
Oidio
Biomassa
Rischio
danno
Tignoletta
Data Germinazione
Superficie fogliare
Peronospora
Data Fioritura
Biomassa
Rischio
danno
Data indurimento
nocciolo
Data Fioritura
Botrite
Data Fase LAG
Rischio
danno
Stima %
danno
Data Maturazione
Rischio
danno
Produzione
Stima %
danno
Data maturazione
Produzione
Fig. 14 – Schema del flusso di dati all’interno del sistema.
Facendo riferimento al primo rapporto, seguendo lo schema del flusso di dati si può facilmente
comprendere che i modelli fenologici e produttivi di olivo e vite forniscono ai modelli fitopatologici
informazioni utili alla stima della data d’inizio dell’eventuale ciclo del patogeno. Per molti patogeni e
fitofatofagi, come visto per la Lobesia Botrana nel paragrafo precedente, le diverse fasi del ciclo si
intersecano in maniera strettissima con quelle della pianta. Questa sovrapposizione si concretizza anche
in un aumento o una diminuzione dei rischi connessi alla presenza del patogeno, poiché se non c’è
sovrapposizione delle fasi non ci sarà neppure un elevato rischio di danno.
Nel caso della tignola dell’olivo, ad esempio, i primi sfarfallamenti si osservano verso
marzo-aprile e con la fioritura, la deposizione delle uova sui fiori. La data della fioritura è quindi
importante, per stimare il periodo di sovrapposizione dei due eventi. A maggio-giugno, poi, si avrà la
49
seconda generazione, che prevede la deposizione delle uova sulle drupe (dimensioni 0.5 mm) che
saranno poi distrutte dalle larve. A settembre il ciclo si conclude con l’impupamento nelle foglie, con un
rischio pronunciato per i germogli. Eventuali osservazioni di campo, possono quindi aiutare a definire
il grado di affidabilità del modello e, al tempo stesso, a inserire le eventuali percentuali di danno per la
correzione dei valori di produzione potenziale prevista.
Se consideriamo la peronospora, il legame con lo stato di sviluppo della pianta è immediato,
poiché il modello assume che il fungo non possa svilupparsi finché non si siano raggiunti i 10 cm di
lunghezza del tralcio. Questa informazione potrà essere fornita direttamente dall’utente o stimata tramite
il modello, una volta individuata con precisione le soglie termiche necessarie per la ripresa vegetativa e
quelle per lo sviluppo fino a quella data fase. Da questo punto di vista, molto può ancora essere fatto a
livello modellistico, specialmente se si prenderanno in considerazione elementi più precisi, relativamente
all’efficienza fotosintentica e alla ripartizione della sostanza organica.
Per quanto riguarda l’oidio, si deve egualmente assumere la presenza delle foglie, mentre per la
muffa grigia si dovrà iniziare il calcolo del rischio a partire dalla data di fioritura fino alla raccolta.
Tutti questi modelli dovranno, con il tempo, essere messi in condizione di fornire agli agricoltori e
al sistema una stima dei danni prodotti dai diversi agenti patogeni e quindi consentire una previsione più
realistica delle produzioni e della qualità attesa nelle diverse situazioni (zone di produzione o annate).
5
Possibile organizzazione del servizio
In questo paragrafo non si intende richiamare le indicazioni già date nel corso dei nostri incontri
sulla necessità di verificare con attenzione i dati disponibili e di integrarli, per quanto possibile, con quelli
provenienti da fonti ufficiali esterne al servizio. Si intende, invece, dare un contributo alla definizione dei
compiti e delle funzioni dei diversi elementi interni al servizio, la cui attivazione viene prospettata
nell’ambito del progetto AgroSmart.
Una prima serie di indicazioni utili può essere fornita dall’analisi di quanto già operativo presso altri
enti o servizi ed in particolare dalla valutazione dei risultati ottenuti dopo alcuni anni di attività. Per la
descrizione di questi servizi e per gli esempi che possono essere tratti da esperienze diverse, si rimanda ai
siti dei servizi meteorologici regionali e ai servizi privati presenti sia in Italia sia all’estero. Il quadro che se
ne coglie è quello di un progressivo spostamento dei servizi dal supporto alla programmazione delle attività
colturali (trattamenti antiparassitari, diserbo, concimazioni, ecc.) a quello maggiormente orientato alla
riduzione dell'impatto ambientale delle diverse attività agricole.
Gli strumenti informativi disponibili sono tuttavia gli stessi e vanno dalla diffusione di bollettini
agrometeorologici riguardanti l'andamento dell'annata agraria e gli interventi colturali più idonei, in
relazione ai terreni (bilancio idrico) ed al rischio fitopatologico, all’invio di messaggi di allerta, via fax o
sms. Molto spesso i servizi sono il prodotto di collaborazioni con enti diversi, uffici tecnici di sostegno,
associazioni di categoria, cooperative o consorzi e la maggior parte di questi attori, manifestano l’esigenza
di disporre delle informazioni a loro necessarie nel momento in cui queste servono, cioè in tempo reale e
50
ovunque si trovano a svolgere le loro attività (in pieno campo come in ufficio).
Questa domanda di informazione rappresenta un elemento positivo che, tuttavia, si scontra con un
periodo prolungato di budget risicati e risorse limitate. Occorre, pertanto, cercare di proporre soluzioni che
sfruttando al massimo gli strumenti, le conoscenze e le risorse già esistenti, indirizzino in maniera
economica ed efficace gli aspetti critici del controllo. Nella progettazione di un qualunque piano di
innovazione aziendale bisognerebbe quindi tener conto delle prospettive future e della possibilità di
recepire in maniera proficua le eventuali innovazioni.
Un’analisi di qualche anno fa indicava una situazione alquanto infelice per i servizi
agrometeorologici e per i loro utenti, rilevando la mancanza di strumenti adeguati e una scarsa
preparazione a recepire le proposte più avanzate. Soltanto una decina d’anni fa l’informazione
agrometeorologica era considerata utile soltanto per la componente meteorologica e previsionale, mentre
quella agronomica e di servizio non veniva praticamente presa in considerazione.
Le ragioni storiche della scarsa efficacia dell’informazione agrometeorologica variavano
chiaramente nelle diverse aree geografiche e secondo le finalità perseguite, ma si deve anche ricordare che
questa disciplina è ancora giovane e che molti degli strumenti e delle procedure adottate sono
estremamente innovative per il settore.
A fianco di un’attenta valutazione della validità e congruità dei mezzi, è stato necessario pertanto
fare un salto di qualità dal punto di vista tecnico-scientifico e formare il personale e gli stessi utenti, in
modo da metterli in condizione di utilizzare l’informazione trasmessa. Questo processo, sebbene possa
dirsi ad uno stadio evolutivo avanzato, non si è ancora del tutto concluso e questa opera di
preparazione/formazione dovrà essere continuata anche in futuro. Uno degli aspetti su quali si è
maggiormente insistito è la necessità di coinvolgere l’utenza finale nella gestione delle informazioni, in
modo che queste rappresentino realmente la realtà che s’intende supportare.
Visti i cambiamenti in atto, si può nutrire la speranza che si diffonda un nuovo atteggiamento di
apertura e volontà di collaborazione, che potrebbe portare i nostri sistemi produttivi al pari di altre realtà
europee, almeno in termini di efficienza e partecipazione. Per il momento, quello che si osserva è un lento
avvicinamento tra i diversi attori, favorito anche dalla disponibilità di strumenti come quelli fin qui
ricordati. Progetti come AgroSMART potrebbero contribuire a creare il substrato necessario allo sviluppo
di iniziative condivise e alla messa a punto di programmi trasversali, che consentano di trarre il massimo
profitto da quanto già esistente sul territorio.
Negli ultimi anni, gli operatori del settore e in particolare gli agricoltori, hanno avuto modo di
valutare l’efficacia dei consigli, degli avvisi o dei bollettini agrometeorologici dei vari servizi e, per
ciascuna voce precedentemente ricordata, sarebbero in grado di indicarne vantaggi e svantaggi. Occorre
quindi ripartire con il piede giusto, recuperando la fiducia degli utenti attraverso la conoscenza delle loro
reali esigenze e l’offerta di servizi che essi stessi ritengano essenziali per la loro attività. L’organizzazione
del servizio, pertanto, non potrà prescindere dalla conoscenza dei problemi reali che s’intendono affrontare,
così come la sua attivazione dipenderà dalle priorità individuate.
51
Inoltre, la conoscenza della singola realtà produttiva, la disponibilità di dati locali e il confronto con
situazioni passate, potrà consentire di effettuare valutazioni specifiche e di creare servizi personalizzati. È
sufficiente ricordare l’importanza di prevenire determinate condizioni di rischio, proprie di certe aree più
che di altre, o l’interesse che può esservi nel disporre di dati specifici e quindi nella semplice installazione,
manutenzione e controllo di sensori dedicati.
In alcuni casi, poi, si potrebbero offrire servizi ottenuti dalla semplice integrazione e interpretazione
di dati e informazioni attraverso analisi, che potrebbero essere il frutto di competenze interne specifiche.
L’esempio più semplice è quello della previsione agrometeorologica locale, fatta a partire da bollettini
regionali o dalle previsioni meteorologiche diffuse da altri numerosi servizi.
Nei paragrafi precedenti si è visto che suggerimenti e indicazioni operative a breve termine (fino a
tre giorni) possono essere date con grande precisione e dettaglio, integrando informazioni di terra con le
immagini satellitari, i dati provenienti da reti di rilevamento e le analisi modellistiche. Un servizio di questo
tipo, specialmente se proposto in momenti decisivi dell’annata agricola (es. fioritura o raccolta) potrebbe
diffondere una serie di informazioni di grande interesse, ad esempio proponendo carte o indici di sintesi
facilmente interpretabili e prontamente utilizzabili (es. carte fenologiche o di produzione).
Per quanto riguarda l’automazione dei processi interni al servizio, dato l’impegno richiesto per la
loro realizzazione e la relativa stabilità dei processi, per il momento si deve constatare che potrà essere
ricercata e avviata soltanto nel caso in cui ci si trovi di fronte a richieste esplicite e sostenute da adeguati
interessi economici. Vi sono tuttavia alcuni elementi, come ad esempio la gestione dell’irrigazione, la cui
automazione non richiede un impegno particolare e per i quali una completa automazione può già essere
proposta.
In estrema sintesi, prima di offrire un servizio agrometeorologico ai nuovi potenziali utenti si dovrà
verificare la presenza di determinate condizioni:
o lo strumento proposto esiste ed è immediatamente disponibile;
o lo strumento ha una sua validità economica;
o i dati di base richiesti, fondamentali per la sua attivazione, sono disponibili a scale
spazio-temporali adeguate, aggiornati e verificati;
o il servizio è già stato validato presso realtà simili a quelle alle quali viene proposto;
o è possibile informare l’utente sull’affidabilità dell’informazione trasmessa;
o vi sono i presupposti perché il servizio possa essere attivato nei tempi previsti;
o si possono offrire le necessarie garanzie e l’assistenza richiesta dall’utente.
Una volta definito il quadro operativo, sarà quindi possibile programmare le diverse fasi di sviluppo,
prevedendo anche le opportune verifiche e i necessari approfondimenti, ma sempre nel rispetto delle
esigenze dell’utenza finale e mantenendo la massima trasparenza nel trasmettere l’informazione richiesta.
52
5.1 Struttura del servizio
Per un qualsiasi servizio per l’agricoltura e/o per l’ambiente, come quello oggetto del progetto
AgroSmart, bisogna considerare tre elementi chiave, con le loro rispettive peculiarità:
o Il servizio, con i suoi strumenti e il suo
personale;
o L’imprenditore e la sua realtà produttiva (tecnici,
esperti, ecc.)
o I consulenti che contribuiscono a rendere
affidabile e ad aggiornare il sistema di supporto.
Lo schema a fianco mette in evidenza il ruolo
centrale dell’esperto, responsabile del servizio, che
rappresenta anche la vera interfaccia tra il sistema e il
mondo esterno. Infatti perché il supporto e le
indicazioni fornite possano essere valide e facilmente
utilizzabili dall’utente, l’esperto deve effettuare un
compendio di tutte le informazioni a sua disposizione,
inserendo e pesando anche aspetti spesso noti a lui
soltanto. Sapendo, ad esempio, che certi dati raccolti
hanno un valore informativo relativo o che un dato
modello perde di validità in un certo range operativo,
l’esperto potrà ovviare ad eventuali errori, trasmettendo all’utente un’informazione “filtrata” e/o
elementi di valutazione aggiuntivi.
Le informazioni complementari e le procedure di valutazione dell’esperto, nel tempo, dovranno
essere trasmesse al sistema, che in questo modo diventerà sempre più autonomo e capace di gestire
situazioni complesse. A questo punto il ruolo dell’esperto si sposterà verso altri elementi e livelli
progressivamente più alti per una gestione sempre più ottimizzata delle risorse.
Il servizio dovrà mantenere un ruolo centrale di controllo e garanzia, in particolare per quanto
concerne il funzionamento della rete e la validità dei dati impiegati che, dovrebbero trovare sempre
nuove e interessanti applicazioni (estensione delle funzioni del servizio). Per velocizzare questo processo
che, in larga misura risulta essere una naturale evoluzione di questa tipologia di servizi, occorre investire
molto nella formazione del personale. Soltanto in questo modo, valorizzando il capitale umano, si
potranno cogliere le occasioni offerte dal mercato e dare le giuste risposte alle nuove sfide che si
prospettano.
La sostenibilità economica del servizio dipenderà in larga misura dalla capacità di allargare il
bacino di utenza. Questo potrà essere fatto principalmente in diversi modi:
53
o Potenziando gli strumenti;
o Estendendo la rete di controllo e servizio;
o Offrendo la massima collaborazione su iniziative collaterali.
Ciascuna di queste azioni richiede molto impegno e da sola purtroppo non garantisce il successo
dell’iniziativa imprenditoriale. Si può dire, pertanto, che queste azioni non sono solo auspicabili, ma
rappresentano con ogni probabilità l’unico modo per raggiungere una dimensione economica adeguata,
al fine di superare i limiti che il settore ha mostrato di avere fino ad oggi e garantirsi una sufficiente
stabilità. Tralasciando la componente gestionale e amministrativa, sulla base di queste semplici
considerazioni si possono già prevedere almeno quattro diversi comparti tecnici (o competenze
professionali) per il sistema:
o Gestione dati e informazioni (DB e software);
o Gestione della rete di monitoraggio e controllo (sensoristica e componentistica hardware);
o Assistenza e previsione agrometeorologiche (esperto agrometeorologo);
o Sviluppo e innovazione (Responsabile del servizio);
L’inserimento di figure diverse, afferenti magari a settori limitrofi, e l’acquisizione di strumenti
complementari rappresenterebbe un valore aggiunto per tutto il servizio e darebbe la possibilità di
valorizzare al meglio il lavoro svolto. Quello che è certo è che, in futuro, pubblico e privato dovranno
lavorare sempre più assieme, per perseguire e raggiungere obiettivi concreti, offrendo al cittadino utente
servizi efficienti ed economicamente vantaggiosi.
5.2 Le potenzialità.
In certi settori, più che in altri, le usanze e le tradizioni sembrano difficili da cambiare, anche
perché danno a chi le segue un senso di sicurezza che, per attività a rischio come quella agricola, sembra
talvolta irrinunciabile. Questo non è un problema solo italiano, anche se da noi questi aspetti sembrano
particolarmente rilevanti, fino a diventare parte integrante dei nostri sistemi produttivi, che ne hanno
fanno, nel corso del tempo, un elemento di vanto (tradizione).
Vi sono oggi molti approcci al problema della competitività, e spesso si vedono riproposte delle
tecniche “antiche” per risolvere problemi nuovi, ma in molti casi la loro validità è quantomeno incerta. Si
deve constatare che la tradizione e talvolta la credenza popolare hanno un certo appeal sul compratore,
che è disposto a pagare di più il prodotto biologico/ecologico, ritenendolo spesso a ragione, anche più
sano. Oggi, infatti, i prodotti tradizionali e il ricorso a tecniche addirittura antiche è divenuto per molti un
elemento di forte richiamo e di notevole impatto commerciale, con il quale si tenta di coniugare il
bisogno diffuso di dare nuove risposte con la scarsa disponibilità a cambiare realmente.
I prodotti biologici e i più recenti prodotti biodinamici, ad esempio, rappresentano un tentativo di
54
ritorno alle pratiche naturali, ma non bisogna sottovalutare che anche queste scelte comportano dei rischi
e che questi non sono affatto trascurabili. Infatti non si tratta tanto di competere con prodotti di aspetto
più gradevole o di limitare i costi della produzione, ma piuttosto di accettare il fatto che occorre garantire
produzione e qualità, dare stabilità ai mercati e limitare la nostra dipendenza dai fattori ambientali. Il
singolo produttore, pertanto, potrà anche trovare risposte valide per la propria particolare situazione, ma
a livello regionale e ancor più nazionale, fare scelte estreme sarebbe semplicemente un azzardo.
Indipendentemente dalle scelte e dalle convinzioni personali, quindi, si deve accettare che occorre
pertanto andare avanti, soprattutto nelle conoscenze, per garantirci sviluppo e sostenibilità ambientale.
Come ulteriore elemento di riflessione e d’interesse, si può ricordare che l’agrometeorologia, per
sua natura, va proprio nel senso della tradizione e di una maggiore rispondenza tra attività dell’uomo e
ambiente. Infatti, pur cercando di raggiungere i risultati desiderati attraverso l’impiego di strumenti
innovativi, l’obiettivo principale è quello di consentire uno sviluppo e quindi una produzione sostenibile
dal punto di vista ambientale.
Innovazione e tradizione sono due facce di una stessa medaglia, attraverso le quali si cerca di
descrivere e migliorare un’unica realtà. Quando si pensa all’innovazione, pertanto si deve pensare
all’introduzione di pratiche, sistemi e criteri migliori di quelli che erano usati in precedenza.
L’introduzione di nuove pratiche, pertanto, dovrebbe essere fatta dopo una valutazione attenta di tutti gli
aspetti d’interesse e non soltanto di quelli economici.
L’agrometeorologia da sempre si pone in maniera estremamente aperta, mettendo al centro della
propria attività la conoscenza, la sola che può consentire una corretta gestione delle risorse ambientali e
di effettuare scelte programmatiche corrette. Potremmo dire che questa disciplina si mette a disposizione
di tutti, proponendo strumenti assolutamente ecologici e forse anche biodinamici, anche se estremamente
innovativi e compatibili con qualsiasi attività agricola.
Del resto, negli ultimi anni, è cambiata la stessa visione di imprenditoria agricola, con
l’assunzione di un ruolo che in molti casi è di tipo più ambientale o eco-turistico, non semplicemente
produttivo. Soltanto qualche anno fa, si insegnava che un bravo imprenditore doveva mirare ad ottenere
prodotti di qualità a prezzi contenuti e che il mercato avrebbe premiato il rapporto qualità prezzo. Oggi si
può dire che questi concetti sono superati e che aspetti come il marketing e l’immagine sono divenuti
aspetti molto importanti. Purtroppo, in un mercato in continua evoluzione e sempre più competitivo, chi
ha seguito le mode non si è assicurato una lunga permanenza e non può più essere considerato un modello
vincente.
In proiezione, pertanto, qualsiasi sia il modello produttivo prescelto, gli aspetti ambientali vanno
acquisendo un ruolo fondamentale e questo rende ottimisti sul futuro di iniziative come quella messa in
essere con il progetto AgroSmart. Questo ottimismo non è dettato da considerazioni di tipo estemporaneo
o contingente, ma piuttosto da analisi e valutazioni obiettive che oggi possono essere facilmente
comprese e condivise da parte di tutti gli operatori del settore. Riportiamo, in sintesi, i punti visti in
occasione del nostro rapporto intermedio:
o l’agricoltura, più di altri settori, fa uso di risorse naturali che non possono più essere considerate un
55
bene illimitato. Acqua e suolo in particolare, fino ad oggi a disposizione degli agricoltori italiani
praticamente senza vincoli o restrizioni (salvo che in casi estremi), assumeranno un valore enorme
ed il loro uso rischia di essere fortemente limitato e controllato;
o Gli aspetti ambientali, relativi ad esempio all’impiego di prodotti chimici e alla sanità pubblica,
diventano sempre più importanti e diventa al contempo sempre più facile, per coloro che sono
chiamati a garantire la qualità dell’ambiente, effettuare controlli mirati;
o I costi della manodopera, seppure mantenuti a livelli bassi dall’offerta di personale proveniente da
paesi extracomunitari, e quelli dei macchinari, comprensivi dei costi relativi ai carburanti e
all’energia, rappresentano voci di grande rilievo e, anche in questo caso, un loro uso più razionale
può favori la concorrenzialità dei nostri sistemi produttivi;
o La valutazione dei rischi ambientali e la stima delle produzioni, anche connessi alla stipula di
assicurazioni o contratti di filiera di tipo sempre più restrittivo e vincolante, richiede una
conoscenza profonda del ruolo dei fattori climatici;
o I mercati, sempre più esigenti e attenti alla qualità dei prodotti, chiedono ai produttori sempre
maggiori garanzie, che possono essere date soltanto da sistemi integrati molto avanzati, in grado di
intervenire nei tempi richiesti e secondo principi ben definiti.
Ciascun imprenditore, in funzione della sua capacità ed esperienza, è chiamato a fare le proprie
scelte, ma nessuno potrà ignorare l’importanza di disporre di strumenti di supporto in grado di dare
almeno quella base di conoscenze necessaria a descrivere il quadro nel quale è chiamato ad operare.
Nei paesi più avanzati come Stati Uniti, Australia, Canada, Germania, Giappone, Francia, ma
anche Sud Africa e Israele, si fa sempre più ricorso a strumenti sofisticati, di alta valenza scientifica,
mettendoli al servizio di un approccio perfettamente compatibile con le esigenze ambientali. Siamo
quindi convinti che le pratiche agrometeorologiche saranno sempre più importanti nel prossimo futuro,
ma per il momento la loro introduzione e diffusione richiede il coinvolgimento di figure pubbliche o il
ricorso a finanziamenti specifici.
Dal momento in cui si devono riprogettare o aggiornare determinati settori l’analisi
agrometeorologica, anche se spesso poco praticata, può essere decisiva per il successo dell’iniziativa e in
molti casi irrinunciabile, ma se quello che interessa è una semplice razionalizzazione delle attività,
occorre in via preliminare valutare il risparmio effettivo previsto e la sua valenza ambientale ed
economica. Purtroppo, molte iniziative lodevoli non reggono a questa valutazione preliminare, anche
perché la dimensione delle aziende italiane è generalmente troppo ridotta per permettere al singolo
agricoltore di farsi carico di tutte le spese necessarie. Diventa perciò decisivo l’instaurarsi di sinergie e
collaborazioni che in alcuni casi sono difficili da realizzare; dove queste esistono, però, i risultati non si
sono fatti attendere e i vantaggi sono stati molto significativi.
56