Ormai è inevitabile… ma vi chiedo solo di premunirvi, come notate non sono più i messaggi alieni… a dare questi annunci… i nostri scienziati… pian piano
si sbilanciano… un motivo c’è se fanno queste affermazioni…
Se non volete provvedere a voi stessi… inserite nella valigia… qualcosa che possa dare aiuto e sostegno al vostro prossimo… é tutto perfetto… deve accadere tutto questo… sereno giorno a Tutti Voi… con affetto Dolbyjack
P.S. articolo lungo… :-)
TERREMOTI AD 2010, SEQUENZE SISMICHE PREOCCUPANTI IN GRECIA E NEL MONDO
L’Aquila, 08/02/2010 - Terremoti Ad 2010, sequenze sismiche preoccupanti in Grecia e nel mondo: i terremoti nell’area balcanica potrebbero “destabilizzare” l’area mediterranea e l’Italia meridionale. Le tecnologie di realtà virtuale, ad esempio quelle utilizzate nel kolossal “Avatar” di James Cameron, possono
aiutare il grande pubblico e la scienza, nella comprensione dei fenomeni naturali
come i terremoti, le eruzioni vulcaniche e gli tsunami. Lo spettro della distruzione sismica delle grandi città: a volte è solo una questione di conto alla rovescia. La proposta del prof. Enzo Mantovani dell’Università di Siena:“Ecco alcune considerazioni sulla previsione dei terremoti in Italia, utili anche alla Protezione Civile”. L’idea è di organizzare un grande convegno di geofisica sul modello dell’Agu Fall Meeting. Il disastro di Haiti può colpire analogamente anche in Italia? La nota faglia “Enriquillo-Plaintain Garden” studiata dagli scienziati dell'Usgs e della Nasa con vari lavori pubblicati, è sotto osservazione da anni. Nel caso della Polonia, la profondità superficiale dei terremoti in atto non sarebbe anomala, sempre che sia stata misurata correttamente: la crosta terrestre comincia a immagazzinare energia sismica già a partire dai 2-3 km di profondità. Semmai è il terremoto stesso che in Polonia è insolito, visto che le zone del Nord-Europa sono quasi del tutto asismiche.
(di Nicola Facciolini)
Dopo il disastroso terremoto di Haiti (una vera ecatombe), sicuramente da segnalare è l’importante sequenza sismica in atto da gennaio 2010 in Grecia e Polonia, sotto la costante attenzione dei ricercatori dell’Istituto nazionale di geofisica e vulcanologia (Ingv), delle università italiane e dei principali centri di ricerca di tutto il mondo. Prima e dopo il terremoto di L’Aquila (Mw=6.3) del 6 aprile 2009, gli scienziati (www.emsc-csem.org) hanno sempre detto di non poter escludere il rischio di nuovi eventi sismici disastrosi nel mondo. “What is most tragic is that the collective genius of all of these experts, combined with the sensors and satellite observations and seismographic data and all the other tools of science and technology, could not send the important message at the key moment: Run. Run for your lives”(Joel Achenbach, Washington Post, 30 gennaio 2005). Premesso che quando si parla di terremoti sarebbe sempre meglio parlare di probabilità di accadimento bassa o alta, mai inesistente, per gli scienziati, anche in una zona come l’Aquilano, parlare di “pericolo inesistente” sarebbe sempre e comunque sbagliato. I terremoti nell’area balcanica, tuttavia, potrebbero “destabilizzare” l’area mediterranea e l’Italia meridionale, con lo spettro della distruzione sismica di grandi città. Il disastro di Haiti può colpire analogamente anche in Italia? La nota faglia “Enriquillo-Plaintain Garden” studiata dagli scienziati dell'Usgs e della Nasa con vari lavori pubblicati, è sotto osservazione da anni. Anche le tecnologie di realtà virtuale, ad esempio quelle utilizzate nel kolossal “Avatar” di James Cameron, possono aiutare il grande pubblico e la scienza, nella comprensione dei fenomeni naturali come i terremoti, le eruzioni vulcaniche e gli tsunami. Le potenzialità sono infinite. Per il prof. Enzo Mantovani dell’Università di Siena le considerazioni fatte dalla Commissione nominata dalla Protezione Civile sembrano escludere che i precursori a breve termine, come il radon, possano essere usati in modo attendibile per individuare il luogo e il tempo di scosse future. “Siccome tale commissione include ricercatori di grande esperienza in questo settore – fa notare Mantovani – pensavo che tutti considerassero pressoché chiuso questo argomento. Per quanto riguarda invece le previsioni a medio-lungo termine, la Commissione considera le prospettive in questa direzione molto più concrete e utili per la Protezione Civile. Le ricerche in questa direzione sono state analizzate in modo parziale, trascurando un tipo di approccio (quello deterministico) che offre prospettive molto più interessanti di quello statistico. Su queste ultime vi rivelo alcune argomentazioni che a mio parere sono molto convincenti sulla loro scarsa potenzialità”. Al convegno di Trieste di metà novembre, la discussione ha suscitato notevole interesse tra i ricercatori e gli organizzatori hanno deciso di raccogliere i vari contributi in un volume di una rivista scientifica. “Come previsto – rivela Mantovani – l’analisi dei dati geodetici sull'Appennino centro settentrionale pre e post-terremoto aquilano sta prendendo tempo, ma penso che sia speso molto bene”. Dopo le notevoli polemiche che si sono scatenate in occasione del terremoto del 6 Aprile 2009 riguardo alle possibilità di fare previsioni di terremoti, la Protezione Civile ha ritenuto opportuno favorire un approfondimento delle conoscenze su questo aspetto. “In prima istanza – sostiene il prof. Enzo Mantovani – è stato affidato il compito di fare il punto della situazione ad una Commissione internazionale di esperti, che ha già emesso un documento in cui sono sintetizzate le prospettive offerte dalle attuali conoscenze e le indicazioni da seguire nelle indagini a venire. Questo messaggio conferma l’attuale scetticismo sulla possibilità di fare previsioni a breve termine sul luogo e il momento di future scosse e incoraggia invece le ricerche sulle previsioni a medio-lungo termine, come strumento per riconoscere le zone sismiche più esposte ai prossimi terremoti forti in Italia”. L’informazione più utile? “Tale informazione sarebbe infatti di notevole utilità per la Protezione Civile in quanto potrebbe permettere di concentrare in poche zone le scarse risorse (eventualmente) stanziate nel breve termine per mettere in sicurezza il patrimonio edilizio esistente”. Le indagini in questa direzione, sono attualmente svolte seguendo due metodologie chiaramente distinte: la statistica e la deterministica. Quale le sembra la più promettente? “A questo riguardo – spiega Mantovani – va rivisto lo schema riportato nel documento della Commissione, che nomina le indagini deterministiche come unicamente finalizzate a elaborare previsioni a breve termine. Questa impostazione del problema da parte della Commissione si riflette poi nel fatto che nel documento finale non sono considerate le potenzialità del metodo deterministico per la previsione a medio-lungo termine dei terremoti, nonostante che tale metodo sia riconosciuto in letteratura”. Come lo spiega? “Il fatto che nessuno degli esperti della Commissione ha conoscenze molto sviluppate sull’assetto geodinamico e sismotettonico dell’area mediterranea centrale (un’informazione che costituisce la base indispensabile per qualsiasi metodologia deterministica per la previsione a medio-lungo termine dei terremoti) può avere avuto un ruolo non secondario nella scelta delle metodologie da inserire nel documento finale”. Considerata l’importanza di avere una conoscenza approfondita e completa su un problema di altissimo impatto sociale come la difesa dai terremoti, cosa è urgente fare subito? “Sarebbe opportuno che le conclusioni della Commissione venissero sottoposte ad una discussione aperta a tutti gli operatori del settore. Lo sforzo non sarebbe eccessivo e la Protezione Civile avrebbe la possibilità di acquisire conoscenze molto più complete sulle potenzialità delle metodologie attualmente disponibili per il riconoscimento delle zone più pericolose in Italia”. Per dare un’idea sull’opportunità di organizzare una discussione aperta sul problema in oggetto, il prof. Mantovani suggerisce alcune considerazioni sulle potenzialità e limitazioni delle due metodologie alternative: la statistica e la deterministica, che potrebbero servire come spunto di discussione durante l’auspicato convegno internazionale italiano che potrebbe svolgersi a L’Aquila. “La metodologia statistica è basata sulla speranza di riuscire a dedurre (tramite analisi più o meno sofisticate) dalla storia sismica passata delle zone implicate, possibili regole di comportamento dell’attività sismica, con l’obiettivo di utilizzarle per prevedere la prossima distribuzione dei terremoti forti sia nel tempo sia nello spazio. Molte ipotesi sono state finora avanzate a questo riguardo. Le più citate nella letteratura relativa sono note”. Cos’è il ciclo sismico? “Questo concetto presuppone che in una determinata zona esistano alcune faglie principali su cui si sviluppano tutte le scosse più intense. Questo implicherebbe che la conoscenza (presunta) delle sorgenti dei terremoti passati (per esempio le informazioni riportate nel documento DISS elaborato dall’INGV, Basili et alii, 2008, Tectonophysics, 453) individua automaticamente i siti dove si verificheranno i prossimi terremoti forti. In ogni zona sismogenetica si suppone che la deformazione si accumuli lentamente per l’azione dei processi tettonici a larga e piccola scala, avvicinando progressivamente la faglia alla condizione di slittamento sismico”. Quindi, la separazione tra una scossa e quella successiva sarebbe regolata dal tempo trascorso dall’ultima scossa, dalla velocità di accumulo della deformazione e dalla resistenza alla rottura delle strutture locali. “Se questo quadro interpretativo fosse reale, sarebbe uno strumento estremamente efficace per la previsione dei terremoti. Purtroppo, numerosissime evidenze indicano che pur essendo valido in linea generale, è troppo semplificato per descrivere una realtà molto più complessa. Nella parte superficiale fragile della crosta (fino a circa 10-15 km) esistono numerosissime faglie di varie dimensioni (indotte dai processi tettonici precedenti). Quando l’entità degli sforzi raggiunti in un determinato momento evolutivo supera la soglia di rottura delle rocce nella zona di maggiore debolezza, la frattura comincia a svilupparsi, attivando in successione faglie minori fino a che la frattura incontra un ramo di faglia dove la resistenza delle rocce supera lo sforzo in atto. Questo processo implica che la lunghezza complessiva della sorgente sismica può essere molto variabile e che la geometria finale della faglia può essere differente rispetto a quella di scosse precedenti (che hanno preso strade diverse, in base al principio del minimo lavoro). Inoltre, la velocità di accumulo della deformazione in ogni zona può variare da un ciclo sismico all’altro in funzione di come si distribuiscono i terremoti forti avvenuti in precedenza nelle principali zone di disaccoppiamento del sistema strutturale in movimento (placca, cuneo orogenico, ecc). I terremoti avvenuti nelle ultime decine di anni (Irpinia1980, Colfiorito 1997, S.Giuliano 2002, L’Aquila 2009) hanno fortemente ridimensionato la fiducia sull’idea che le faglie colpiscano sempre le stesse strutture (terremoto caratteristico) in quanto le faglie attivate nei vari casi non erano state inserite tra le maggiori candidate nelle zone relative, come ammesso dal Dr. Valensise del’INGV, uno dei più convinti sostenitori del terremoto caratteristico (rivista GeoItalia, 2009, n. 28)”. E’ vero che i terremoti sono fenomeni indipendenti fra loro e quindi si distribuiscono nel tempo in modo completamente casuale (distribuzione poissoniana)? “L’unico vincolo è dato dalla legge di Gutenberg e Richter, dedotta in modo empirico dalla distribuzione nel mondo del numero di scosse in funzione della magnitudo. Questa ipotesi è incompatibile con il fatto che i terremoti sono un fenomeno deterministico, cioè controllato da una causa largamente riconosciuta (il movimento relativo delle placche) e dai suoi effetti sulla crosta terrestre nelle zone di interazione tra le placche. E’ quindi scontato che ogni forte terremoto possa perturbare in modo significativo lo stato di sforzo e deformazione nella litosfera, influenzando la probabilità che si verifichino altri terremoti nelle zone circostanti, anche a distanze considerevoli sia nel tempo che nello spazio Evidenze molto convincenti di questo concetto, in termini di distribuzioni particolari di terremoti nello spazio e nel tempo sono riportate in numerosi lavori (vedi per esempio le rassegne di Harris et al., 1998 J.Geophys.Res,103 e Steacy et al., 2005, J.Gephys.Res., 110). Inoltre, l’ipotesi che i terremoti si verifichino in modo indipendente l’uno dall’altro e che questa impostazione si possa utilizzare per fare previsioni di terremoti ha subito notevoli critiche da vari autori sulla base di evidenze importanti (e.g., Mulargia e Geller, 2003, Kluwer Acad. Publ.)”. Cos’è il gap sismico? “Questa ipotesi presuppone che le zone più esposte a terremoti forti siano i settori di una struttura sismogenetica, come una lunga faglia o un margine di placca, che da più tempo non si sono attivati simicamente. L’applicazione di questo concetto alla zona italiana è però molto complicato, soprattutto per la mancanza di strutture a larga scala come quelle sopra citate. Quindi, è estremamente problematico riconoscere quali zone potrebbero essere classificate come gap. Anche nel caso in cui questo riconoscimento fosse possibile, la previsione del tempo di attesa per la prossima scossa forte nel presunto gap sarebbe troppo incerta per essere utilizzata come criterio di priorità nella difesa dai terremoti. Argomentazioni molto dettagliate sulle principali difficoltà del concetto di gap sismico sono riportate in vari lavori (e.g., Kagan e Jackson, 1995, J.Geophys.Res., 100; Mantovani et al., 1997, Ann. of Geophys., 40). Le scosse sismiche tenderebbero a concentrarsi nel tempo (clustering)? “Questa ipotesi, che implica che nel periodo seguente un forte terremoto la probabilità di scosse aumenta significativamente, è sicuramente realistica per le scosse minori che generalmente si verificano dopo un terremoto forte. La sua applicazione a terremoti maggiori presenta invece seri problemi. In Italia questa ipotesi avrebbe portato a previsioni prevalentemente errate dopo i terremoti intensi dell’ultimo secolo. Per esempio, se si considerano i 13 terremoti di M>6 avvenuti dopo il 1900, l’analisi del catalogo italiano indica che solo una di tali scosse (Calabria 1905 M=6.7, seguita dal famoso terremoto di Messina del 1908) è stata seguita da eventi di uguale magnitudo nel raggio di 50 km entro 15 anni. Una casistica così sfavorevole (che peggiorerebbe notevolmente allargando l’analisi ad un periodo più lungo) dovrebbe scoraggiare l’uso del concetto di clustering per la previsione a medio-lungo termine dei terremoti forti in Italia”. Cosa sono i modelli multipli? “Alcuni tentativi di previsione non sono basati su nessuna delle ipotesi sopra citate, ma su combinazioni di esse. Una di queste è la metodologia (Faenza et al., 2003, Geophys.J.Int., 155; Cinti et al., 2004, Geochem.Geophys.Geosystems, 5) che è attualmente utilizzata per elaborare le mappe di previsione a medio-lungo termine che l’INGV mette regolarmente a disposizione della Protezione Civile (consultabili nel sito www.bo.ingv.it). Questo approccio, definito come non parametrico/multivariato, parte dal presupposto che i terremoti tendono a raggrupparsi nel tempo e nello spazio (clustering) nel periodo immediatamente seguente (mesi) ad una forte scossa e a distribuirsi poi in modo casuale (distribuzione Poissoniana) nel periodo successivo. Questo approccio, come tutte le metodologie statistiche, ricava l’algoritmo di previsione dalla storia sismica della zona in esame. In questo caso è stata utilizzata l’informazione relativa al periodo 1600-1950. In questa operazione di taratura sono stati presi inizialmente in considerazione vari parametri geologici e sismologici. Poi, si è cercato di riconoscere l’influenza che ogni parametro esercita sulla distribuzione spazio-temporale delle scosse. Alla fine di questa analisi, le informazioni raccolte indicano che l’unico parametro che risulta avere un peso significativamente diverso da zero è il numero di scosse avvenute nella storia sismica della zona implicata (tempo di ricorrenza medio)”. Sono stati utilizzati per il sisma di L’Aquila? “Questa metodologia è stata utilizzata per elaborare una mappa di previsione nel gennaio 2009, che era quindi in vigore al momento del terremoto del 6 Aprile nell’aquilano. In tale mappa viene indicata come più pericolosa la zona del Friuli, con una probabilità del 27%, seguita dalla zona dall’Appennino meridionale (25%), l’Umbria (25%), la Calabria centrale (17%), la Calabria settentrionale (14%), l’Appennino centrale (11%) e altre zone con probabilità più basse. Il fatto che in questa mappa la zona di L’Aquila (Appennino centrale), fosse classificata al sesto posto di pericolosità suscita qualche perplessità sulla potenzialità di questo metodo. In particolare, sembra strano che una zona che in passato ha subito scosse fortissime e che non aveva subito scosse di M>6 da oltre 300 anni (1703, M=6.8) sia stata considerata meno esposta rispetto ad altre zone, come il Friuli, la Calabria e l’Appennino meridionale, dove terremoti di M > 6 sono avvenuti nell’ultimo secolo”. Per quale motivo? “Questo problema è molto probabilmente legato al fatto che i risultati della metodologia sopra discussa sono fortemente dipendenti dalla geometria delle zone in cui è suddiviso il territorio italiano. Per esempio, se la zona dell’Appennino centrale fosse stata suddivisa in due sottozone, relative ai due sistemi di faglie di L’Aquila e del Fucino (tettonicamente e sismicamente distinti), il risultato dell’analisi statistica sarebbe stato molto diverso. In particolare, la probabilità prevista per la zona di L’Aquila sarebbe risultata molto superiore (in linea con quanto avvenuto in realtà)”. Questo esempio mette in luce un grosso problema metodologico: quali altre zone della suddivisione adottata da Cinti et al. e dalle soluzioni successive (sito INGV) hanno lo stesso problema della zona di L’Aquila? “Purtroppo, non è possibile trovare una risposta sicuramente attendibile a questa domanda. L’unico antidoto contro questa difficoltà (senza garanzie di guarigione, però) è una profonda conoscenza dell’attuale assetto tettonico nella regione in esame, una disciplina che non viene adeguatamente coltivata in molti ambienti scientifici sismologici. Nel lavoro in cui verrebbe dimostrata la validità del metodo (Cinti et al., 2004) è riportata un’unica mappa di previsione, molto simile a quella inserita nel sito INGV nel gennaio 2009. Le previsioni fatte per terremoti precedenti vengono considerate soddisfacenti dagli Autori, ma a sostegno di questa valutazione viene solo riportata un’informazione parziale, come il numero di scosse forti del periodo considerato suddivise nelle zone classificate come altamente probabili, mediamente probabili, poco probabili ecc. Per convincere la comunità scientifica sulla validità di questa metodologia sarebbe invece necessario presentare la mappa di previsione per ogni terremoto considerato, in modo da rendere possibile un controllo come quello sopra discusso”. Vale a dire? “Inoltre, va sottolineato che le probabilità massime previste nella mappa del 2009 sono tutte inferiori al 28 % (per cui la probabilità che le zone in esame non siano colpite da scosse è molto superiore, 72%) e che le probabilità assegnate alle prime sei zone in graduatoria differiscono di qualche punto percentuale. Considerando le forti incertezze che queste valutazioni possono avere (difficilmente definibili per la scarsa conoscenza sulla validità delle assunzioni fatte), sarebbe molto strano che la decisione di destinare risorse economiche ad una zona e non ad un’altra fosse basata su tali minuscole differenze di probabilità, la cui significatività è quasi sconosciuta”. Qual è il concetto che sta alla base dell’approccio statistico? “L’idea che l’analisi di qualche centinaio di anni di storia sismica possa rivelarci il modo in cui le scosse si distribuiranno nello spazio e nel tempo. Considerando che i processi tettonici che stanno attualmente sollecitando il territorio italiano sono stati attivi per milioni, o per lo meno centinaia di migliaia di anni, sembra molto improbabile che il comportamento sismico degli ultimi 300-400 anni sia rappresentativo dell’intera successione di deformazioni e conseguenti fatturazioni che si sono sviluppate nell’intera storia de formativa”. Qual è il concetto che sta alla base dell’approccio deterministico? “Questo tipo di indagine si basa sull’ipotesi che la probabilità di scosse in una determinata zona sia controllata da un meccanismo fisico ben definito. Tale impostazione implica una procedura di validazione completamente diversa rispetto al metodo statistico. La differenza principale è che la storia sismica non deve essere adoperata per dedurre il modello di previsione, ma costituisce invece l’evidenza sperimentale che le previsioni del meccanismo ipotizzato devono spiegare in modo soddisfacente. Per dare un’idea più concreta di quanto detto sopra può essere utile considerare un esempio di questa metodologia che è chiaramente definito in tutti gli aspetti, cioè l’approccio basato sullo studio del rilassamento post-sismico, descritto in vari lavori (Mantovani et al., 1997; Viti et al., 2003, Geophys.J.Int., 153; Mantovani et al., 2010, J.Seismology). Questo metodo suggerisce che la probabilità di scosse in una zona può subire incrementi significativi quando la zona in oggetto è investita dalla perturbazione del campo di deformazione e sforzo indotta da una scossa forte avvenuta in una zona vicina. In particolare, la massima probabilità di terremoti indotti è prevista quando nella zona esposta arrivano i valori più elevati (molto superiori ai valori precedenti e seguenti) del tasso di deformazione associato alla perturbazione migrante. La plausibilità di questa ipotesi è sostenuta da considerazioni teoriche basate su quantificazioni analitiche e numeriche e da osservazioni sperimentali in molte parti del mondo, entrambe descritte in numerosi lavori su riviste internazionali (e.g., Lorenzo Martin et al., 2006, Tectonophysics, 424; Pollitz et al., 2006, Geophys.Res.Letts., 33). Cioè? “Le quantificazioni fatte permettono di chiarire che per terremoti molto forti l’entità delle perturbazioni attese (rilassamento post-sismico) sono sufficienti a innescare terremoti in zone sismiche mature, cioè vicine al punto di rottura delle rocce, anche se situate centinaia di km dalla scossa innescante. E’ bene chiarire comunque, che la probabilità che il rilassamento post-sismico provochi terremoti indotti dipende fortemente dalla condizione che sulla traiettoria della perturbazione migrante ci sia una zona sismica dove le faglie siano favorevolmente orientate rispetto alle caratteristiche degli sforzi indotti dalla perturbazione in arrivo. La validazione di questo metodo può essere facilmente fatta verificando la sua capacità di spiegare aspetti significativi della storia sismica nelle zone in cui (in base alle attuali conoscenze sull’assetto tettonico dell’area mediterranea centrale e alle quantificazioni delle perturbazioni indotte da terremoti forti in quelle zone) sono previsti effetti significativi del rilassamento post-sismico. Le analisi finora effettuate a questo proposito indicano che il fenomeno in oggetto potrebbe essere responsabile dell’interazione tra varie sorgenti sismiche periadriatiche (Viti et al., 2003; Cenni et al., 2008, Boll.Soc.Geol.It., 127; Mantovani et al., 2008, Envir.Semeiotics, 1, 2010, J.Seismology). L’esempio più significativo finora individuato, è costituito dal fatto che negli ultimi due secoli tutti i terremoti forti (M>5.5) nell’Appennino meridionale sono stati preceduti di alcuni anni da scosse molto intense (M>6) nella zona delle Dinaridi meridionali (Montenegro-Albania). L’ultima corrispondenza si riferisce al terremoto avvenuto nel Montenegro nel 1979 (M=7) seguito dal terremoto dell’Irpinia del 1980 (M=6.9). Questa stretta corrispondenza temporale tra scosse forti nelle stesse zone si è verificata altre sei volte nel periodo considerato”. L’interazione osservata tra le sorgenti sismiche sopra citate sembra coerente con evidenze molto significative: quali? “Le conoscenze molto dettagliate sull’assetto sismotettonico della zona adriatica meridionale e le catene circostanti indicano molto chiaramente che i forti terremoti di disaccoppiamento lungo il bordo di sottoscorrimento sotto le Dinaridi meridionali innescano una perturbazione del campo di deformazione che è molto favorevolmente orientata rispetto alle faglie normali che sono situate nell’Appennino meridionale. Le quantificazioni del rilassamento post-sismico effettuate con tecniche numeriche indicano che i valori massimi dell’incremento di tasso di deformazione atteso nell’Appennino meridionale sono previsti circa uno-due anni dopo la scossa innescante nelle Dinaridi meridionali. Un tempo di ritardo che è compatibile con gli intervalli di tempo che hanno finora separato le forti scosse dinariche e appenniniche negli ultimi due secoli. Numerose corrispondenze di questo tipo sono riconoscibili nella storia sismica precedente tra le scosse delle due zone in oggetto, anche se in tali periodi la corrispondenza è meno regolare. Ulteriori indagini sulle informazioni storiche relative alle storie sismiche delle zone implicate potranno chiarire se le mancate correlazioni siano imputabili a lacune nei cataloghi relativi”. Una correlazione temporale analoga a quella sopra citata sarebbe stata individuata tra i forti terremoti dell’Arco Calabro e le crisi sismiche più intense dell’Arco Ellenico, la zona che si sviluppa da Creta alle isole Ioniche: è vero? “In questo caso la corrispondenza è riconoscibile per un periodo più esteso (dal 1600). Inoltre, è stato messo in evidenza che la distribuzione spazio-temporale dei terremoti più violenti nella catena appenninica durante quattro sequenze storiche (1349; 1456-1461; 1688-1706; 1910-1920) è molto compatibile con il meccanismo di deformazione recente/attuale dedotto dall’analisi delle deformazioni peri-adriatiche dal Pleistocene medio (Mantovani et al., 2009, Tectonophysics, 476). In particolare, è molto difficile considerare casuale il fatto che la crisi sismica più violenta e concentrata mai registrata nell’Appennino settentrionale (con sei scosse di M>5.5 nel periodo 1916-1920) si sia verificata immediatamente dopo il forte terremoto del Fucino del 1915 (M=7), che in base al meccanismo tettonico ipotizzato avrebbe notevolmente accentuato ed accelerato il carico tettonico sull’Appennino settentrionale. Anche per i casi sopra citati nella catena appenninica, le quantificazioni del rilassamento sismico forniscono giustificazioni plausibili sulla cronologia delle scosse avvenute (Cenni et al., 2008; Mantovani et al., 2010)”.
Il metodo descritto avrebbe tutti i requisiti per essere inserito tra quelli da sottoporre ad accurata indagine: può spiegare in sintesi per quale motivo? “In quanto “è basato su precursori chiaramente definiti e facili da riconoscere, cioè il verificarsi di scosse forti in zone definite; il meccanismo che può portare all’incremento della probabilità di terremoti in altre zone è definito da leggi precise che permettono il calcolo dei possibili effetti, da confrontare con riscontri altrettanto chiari in quanto costituiti dalla storia sismica, un’informazione non discutibile; anche se non può essere considerato una dimostrazione definitiva dell’attendibilità del metodo proposto, il fatto che le implicazioni del meccanismo ipotizzato forniscono spiegazioni plausibili e coerenti di alcuni aspetti significativi della storia sismica del territorio italiano rende ottimisti sulla potenzialità di questo tipo di approccio”. Nella discussione che si è svolta nella sessione dedicata a questi problemi, durante il convegno del gruppo nazionale di geofisica della terra solida (GNGTS) tenuto a metà novembre a Trieste, alcuni suoi colleghi hanno obiettato che il metodo deterministico non è in grado di fornire previsioni ben definite, paragonabili a quelle delle metodologie statistiche. Che ne pensa? “Questo conferma la nostra impressione che il metodo da noi proposto sia ancora poco conosciuto, nonostante la dettagliata descrizione riportata in letteratura. Per esempio, nel lavoro Mantovani et al. (2010) vengono quantificate le probabilità di terremoti forti previste dal metodo in oggetto per le zone implicate. In particolare, l’analisi statistica delle scosse coinvolte nella prima correlazione citata indica che la probabilità che una scossa forte (M>5.5) avvenga nell’Appennino meridionale senza essere preceduta da scosse forti (M>6) nelle Dinaridi meridionali, è circa del 10%. Questo implica che fino all’occorrenza di scosse forti nella zona dinarica in oggetto, l’Appennino meridionale non potrà essere considerata una zona in pericolo imminente. Questa condizione cambierebbe drasticamente se una scossa forte, come quella avvenuta nel 1979 in Montenegro (M=7) si verificasse nuovamente. In quel caso, la probabilità di scosse forti nell’Appennino meridionale salirebbe a oltre il 50%. Un valore di probabilità non elevatissimo, ma decisamente più alto di quelli (di circa il 25%) stimati dall’altra metodologia”. Per quanto riguarda la seconda correlazione citata? “L’analisi statistica delle scosse implicate indica che la probabilità che un precursore nell’Arco Ellenico (M>6.5) sia seguito da una scossa forte (M>5.5) in Calabria, è compresa tra il 60% e il 70%. Anche in questa correlazione la probabilità che un terremoto forte in Calabria avvenga senza essere preceduto da un precursore nell’Arco ellenico, è molto bassa (minore del 10%). Siccome la recente attività nella zona dell’Arco Ellenico (due scosse di M>6.5 nel 2008) ha caratteristiche simili a quella di un possibile precursore (due scosse di M>6.5 o una di M>6.8), la Calabria potrebbe essere attualmente inserita tra le zone di pericolosità più elevata”. Dunque, i dubbi su questa previsione sono principalmente dovuti alle incertezze che possono interessare i valori di magnitudo stimati? “Certamente. Nonostante che la casistica delle migrazioni di terremoti forti lungo la catena appenninica sia meno numerosa (solo quattro sequenze sono riconoscibili), stiamo analizzando la possibilità di quantificare la probabilità di scosse forti anche in questi casi (Mantovani et al., 2010, in preparazione)”. Quali sono allora le possibili limitazioni del metodo proposto? “L’interazione tra le sorgenti sismiche tramite il fenomeno del rilassamento post-sismico è molto probabile, nelle situazioni favorevoli, quando l’energia liberata dalla scossa scatenante è elevata. Nei casi in cui l’energia è intermedia (come per il recente terremoto aquilano, Mw=6.3), la previsione dei possibili effetti è molto più incerta. Le correlazioni finora riconosciute sono basate sui valori di magnitudo riportate nei cataloghi sismici, che come noto possono essere affette da incertezze significative. Gli intervalli di tempo presi in considerazione nelle correlazioni suggerite sono limitati alle parti dei cataloghi ritenute più complete, generalmente qualche centinaio di anni. Rimane quindi da chiarire se i peggioramenti delle correlazioni nei periodi precedenti sono dovuti alla non realisticità delle interazioni proposte o a lacune nelle informazioni storiche”. Quali sono le prospettive per “azzeccare” in Italia una futura previsione sismica? “Un aspetto importante della metodologia deterministica, che potrebbe aiutare a superare le incertezze sopra citate, è costituito dal fatto che tale approccio è basato sulla propagazione di un fenomeno fisico (rilassamento post-sismico) i cui effetti sulla superficie della Terra hanno ampiezze che per terremoti sufficientemente intensi possono essere rilevate da osservazioni geodetiche o geofisiche. Per esempio, l’attuale disponibilità di reti abbastanza dense di stazioni GPS permanenti sul territorio italiano, potrebbe permettere, per terremoti forti, di seguire l’avanzamento del picco del tasso di deformazione verso le zone sismiche esposte, agevolando la previsione sul ritardo atteso delle possibili scosse indotte. Un’interessante opportunità di svolgere questo tipo di indagine, è stata determinata dal terremoto aquilano del 6 Aprile 2009. Le misure effettuate prima e dopo tale scossa hanno permesso di riconoscere significativi indizi del fenomeno del rilassamento post-sismico innescato dal terremoto aquilano. Anche se i risultati di questa indagine, in accordo con le quantificazioni del rilassamento post-sismico, indicano che le ampiezze della perturbazione innescata dal terremoto del 6 Aprile sono molto probabilmente insufficienti a indurre terremoti nelle zone circostanti, le informazioni così ottenute saranno sicuramente utili per valutare in modo più realistico le caratteristiche geologiche del sistema strutturale appenninico. Questo potrà agevolare lo studio del rilassamento post-sismico per futuri più intensi terremoti nella catena”. Cosa si augura possa fare un giorno la Protezione Civile per prevenire le conseguenze di un terremoto distruttivo sugli Appennini? “Essendo l’Ente che deve prendere le decisioni operative per la difesa dai terremoti, è indispensabile che la Protezione Civile abbia a disposizione un quadro conoscitivo esauriente delle attuali possibilità di riconoscere le zone italiane più esposte a scosse forti, da utilizzare per programmare la destinazione delle risorse eventualmente stanziate nel breve termine per la messa in sicurezza del patrimonio edilizio esistente. Le considerazioni riportate in questo contributo (e quelle molto più dettagliate che potrebbero essere fornite) suggeriscono che per vari motivi la Protezione Civile abbia attualmente informazioni solo parziali sul problema in oggetto. L’acquisizione delle informazioni mancanti può essere ottenuta in vari modi. Una possibile strada potrebbe essere l’organizzazione di un convegno aperto a tutta la comunità scientifica, dedicato alla discussione delle potenzialità e limitazioni delle metodologie di previsione finora proposte. Per affidare questo delicato compito ad un ristretto gruppo di esperti sarebbe necessario che tale gruppo comprendesse ricercatori con esperienza in tutti i tipi di metodologia. Per esempio, non sembra che componenti dell’attuale Commissione abbiano svolto ricerche su metodi deterministici di previsione a medio-lungo termine, capaci di sfruttare le dettagliate conoscenze attualmente disponibili sull’assetto sismotettonico dell’area in esame. Trascurare questo tipo di metodologia non sembra giustificato”. Chi propone? “Per esempio, un esperto quale il Prof. Perkins (uno scienziato largamente riconosciuto per le sue ricerche sulla pericolosità sismica negli Stati Uniti) ha giudicato i risultati recentemente acquisiti da quest’ultimo tipo di indagine di grande interesse per la comunità scientifica. Il convegno da organizzare su questo problema potrebbe anche essere un’occasione per illustrare alla comunità scientifica quali risultati pratici sono stati finora ottenuti nell’ambito dei progetti di ricerca finanziati negli anni passati dalla Protezione Civile con il coordinamento di ricercatori dell’Istituto Nazionale di Geofisica e Vulcanologia”.
Dunque, l’idea forte è quella di organizzare, magari a L’Aquila nel 2010, un convegno multidisciplinare di geofisica sul modello dell’Agu Fall Meeting di San Francisco dove migliaia di ricercatori parlano e discutono non solo di terremoti, ma anche di ambiente e di fisica interplanetaria, integrando le conoscenze acquisite in svariati esperimenti e missioni. Come ha fatto la sonda Cassini (Esa-Nasa) che ha confermato la presenza di laghi di metano liquido su una delle lune di Saturno, Titano, autentica miniera di idrocarburi, posta a un miliardo e mezzo di chilometri dalla Terra. Mentre tutto gioca contro il futuro dell’uomo sulla Terra perché molti scienziati sono convinti del fatto che, indipendentemente dalle tardive decisioni politiche internazionali, saranno semplicemente disastrosi i cambiamenti climatici sulla Terra entro la fine del 22° Secolo, indotti o meno dall’uomo o dal vento solare o piuttosto dai raggi cosmici di una supernova galattica. E questo anche per un aumento medio di temperatura di soli 2 gradi Celsius, fatale per i ghiacciai polari e gli equilibri oceanici. Le piante e gli oceani ce faranno ad assorbire l’anidride carbonica in più? Siamo prossimi allo scenario del film “Waterworld” con tutte le città della Terra sommerse dalle acque? Davvero non c’è più tempo da perdere, come annunziato dal Presidente Barack H. Obama? Ma per fare cosa? Attorno a 15-16 milioni di anni fa, in un’epoca nota come Miocene Medio, le temperature dell’Antartide erano straordinariamente miti: una media di 10°C nel mese di gennaio (che corrisponde all’estate australe), con condizioni climatiche simili a quelle che si riscontrano oggi nella Patagonia e nella Nuova Zelanda Meridionale. Questa storia climatica sta emergendo, strato dopo strato, da una serie di carotaggi effettuati sotto i fondali marini della Baia di McMurdo, nei pressi della omonima base americana. La ricostruzione delle condizioni climatiche di questa lontana epoca della Terra è possibile grazie al progetto Andrill (Antartic Geological Drilling), una collaborazione internazionale fra Stati Uniti, Germania, Italia e Nuova Zelanda. La perforazione attraverso cui vengono raccolte le carote di sedimenti avviene attraverso una piattaforma di ghiaccio marino dello spessore di circa 9 metri, che galleggia su un mare profondo 380 mt. Giunto sul fondale di questo mare, il perforatore affonda nei sedimenti per oltre 1000 mt. Così facendo i ricercatori sono riusciti ad analizzare sedimenti e fossili per ricostruire le condizioni climatiche di un periodo di tempo compreso tra 17 e 14 milioni di anni fa. Quando il sistema climatico globale ha avuto una transizione fondamentale, passando da una fase calda nota agli addetti ai lavori come “worm climate optimum”, all’inizio di un progressivo raffreddamento che ha portato alla formazione di una copertura glaciale quasi permanente nell’Antartide orientale. Al geologo Fabio Florindo che ha partecipato a numerose spedizione in Antartide per conto dell’INGV e che fa parte da circa nove anni del progetto Andrill, chiediamo qual è il contributo che la conoscenza dei climi del passato sta dando allo studio delle attuali variazioni climatiche. “Gli effetti del riscaldamento globale non hanno tardato a farsi sentire anche in questo continente remoto: ricordo che nell’ultima decade, due enormi piattaforme di ghiaccio si sono disintegrate in pochissimi giorni: nel 2002 il Larsen B con 570 chilometri quadrati di estensione e nel 2008 la piattaforma di Wilkins con 3250 chilometri quadrati di estensione. E’ difficile al momento prevedere se l’inizio di un futuro e brusco collasso dei ghiacci antartici avverrà tra un secolo oppure nel prossimo millennio, in dipendenza ai futuri livelli di gas serra in atmosfera. I dati ottenuti da Andrill costituiscono un tassello fondamentale per la conoscenza dei cambiamenti climatici e degli effetti del riscaldamento globale ai poli. Affiancati dall’enorme mole di dati e informazioni interdisciplinari acquisiti in questi decenni essi forniranno un contributo importante alla prossima valutazione dell’IPCC, la quinta dalla sua istituzione”. Per il prof. Warner Marzocchi “un terremoto di Magnitudo 7 può avvenire in Italia ed è già avvenuto nella storia passata. Il terremoto di Haiti ha avuto la peculiarità di avvenire molto vicino ad una città come nel caso del recente terremoto di L'Aquila, ma in questo ultimo caso, la città e il terremoto erano più piccoli. Un fattore importantissimo è che le abitazioni a L'Aquila sono certamente più resistenti di quelle di Port Au Prince. Costruire bene è sempre il fattore di primaria importanza”. Un altro terremoto simile avvenuto in Italia è quello di Messina del 1908. La magnitudo è simile a quello di Haiti e l'epicentro molto vicino alla città”. Quali sono le differenze? “A Port au Prince la rottura si è propagata verso la città aumentando il suo effetto distruttivo (come ad esempio successe anche nel terremoto di Kobe in Giappone nel 1995), mentre a Messina la faglia non si propagò verso la città ma rimase confinata nello stretto. A Messina il terremoto causò un maremoto mentre ad Haiti no. Per ora stiamo guardando solo gli aftershock grossi e il nostro modello sembra funzionare. Però questo caso è molto diverso da quello di L'Aquila dove avevamo un catalogo sismico più che buono e quindi era molto più facile fare dei confronti significativi tra modello e dati”. Per il dott. Gianluca Valensise dell’Ingv “il terremoto di Haiti è stato causato da una combinazione di tre elementi: una grande faglia proprio sotto la città; un forte terremoto su questa faglia; un patrimonio abitativo modesto, in presenza forse anche di effetti di amplificazione locali. In Italia riteniamo ci siano due grandi faglie che sono proprio sotto una città: quella dello Stretto di Messina e quella di L'Aquila. Entrambe hanno già dato un terremoto in tempi recenti (anche il 1908 conta come recente) e quindi per un po' se ne staranno buone. Questo non toglie che un forte terremoto su una faglia a 50 km da Napoli possa fare molti danni, ma non così tanti, e forse mediamente le costruzioni italiane sono migliori di quelle di Haiti. Nel mondo ci sono tante altre città costruite su grandi faglie, in Sudamerica (es. Quito) e in Asia. E' solo un conto alla rovescia per quella gente”. Per il prof. Antonio Moretti dell’Università di L’Aquila “in realtà dalle ricerche di paleosismologia in grotta (p.es. quella del Cervo a Carsoli) si sono trovate tracce di eventi di energia ancora maggiore, con tempi di ricorrenza di decine di migliaia di anni. Che è pressappoco la probabilità di essere colpiti da un meteorite! Quindi accontentiamoci di una magnitudo 6,5-7 come nel 1456 (Irpinia-Beneventano-Maiella), il Fucino 1915 e Reggio 1908, che sono i massimi storici”. Per il prof. Pier Francesco Biagi dell’Università di Bari “il terremoto di Haiti ha avuto magnitudo 7 che è un valore abbastanza grande. Quindi il terremoto è da annoverarsi fra i distruttivi. La zona è il margine fra la placca Caraibica e la placca Nord-Americana; zona caratterizzata da frequente e forte sismicità. Il grande problema è stato l'epicentro praticamente sotto la città e quindi l’evento ha raso al suolo tutto. Ovviamente la precaria situazione edilizia ha esaltato l'effetto distruttivo. Comunque, quando la magnitudo supera 6.5 anche l'edilizia antisismica avrebbe problemi”. Per quanto riguarda l'Italia ricordiamo che sia il terremoto del Friuli del 1976 che quello dell'Irpinia del 1980 hanno avuto magnitudo 6.9, quindi molto prossima a quella di quello di Haiti. “I danni e i morti sono stati tanti, anche se fortunatamente l'epicentro in entrambi i casi era abbastanza lontano dai grossi centri abitati. Il disastro di Haiti è drammatico perché la situazione di vita di quella gente era già critica senza il terremoto, figuriamoci adesso! Anche la situazione organizzativa era nulla: niente Protezione Civile, niente Enti di pronto intervento, niente Ospedali provvisori etc. Praticamente quella gente viveva come nei villaggi dell'Africa nera, cioè senza nessuna struttura di supporto, in abitazioni e capanne in muratura (quindi ben più pericolose di quelle in paglia). In Italia, fortunatamente la situazione è diversa, quindi il dramma di Haiti non potrebbe ripetersi con le stesse drammaticità. Inoltre la nostra sismicità fortunatamente si sviluppa prevalentemente in aree poco abitate”. E che dire della sequenza sismica in atto in Polonia? E’ possibile avere eventi superficiali di magnitudo 4.7 e più, alla profondità di circa 5 Km, come nel caso dell’epicentro localizzato a 69 Km da Breslavia (Wroclaw), 123 Km da Poznan e 129 km da Cottbus, registrato alle 11:53 AM del 11-01-09? Per Gianluca Valensise “è vero e possibile. La crosta terrestre comincia a immagazzinare energia sismica già a partire dai 2-3 km di profondità. Un forte terremoto come quello di L'Aquila richiede uno spessore di crosta fragile superiore (oltre 10 km in quel caso), ma per un terremoto di M 4.7, i 5 km sono più che sufficienti. Nelle aree vulcaniche come l'Etna i terremoti sono quasi sempre entro il 3-4 km di profondità. Per questa ragione non sono molto forti come magnitudo, ma proprio perché sono estremamente superficiali anche un M 4.0 può dare effetti devastanti, seppure in un'area piccolissima”. Nel caso della Polonia, quindi, la profondità non sarebbe anomala, sempre che sia stata misurata correttamente. Semmai è il terremoto stesso che in Polonia è insolito, visto che quelle zone del Nord-Europa sono quasi del tutto asismiche.
Gli studi dei ricercatori Infn-Ingv e delle Università italiane, dimostrano che da anni la “corsa contro il tempo” interessa soprattutto il mondo della scienza. Le tredici Raccomandazioni incise a caratteri cubitali, a L’Aquila lo scorso 2 ottobre 2009, nel Documento redatto dal G10 internazionale dei geoscienziati, devono necessariamente trovare al più presto una via protocollare e normativa di Protezione civile. “Quake forecasting” probabilistico e via deterministica sperimentale, devono armonicamente convolare a giuste “nozze” in Italia, sia per la previsione degli eventi sismici di grande magnitudo sia dei loro effetti sul territorio. Bisogna studiare le faglie superficiali e profonde, con ogni mezzo tecnologicamente disponibile, senza badare a spese. Che poi costi non sono, semmai investimenti finalizzati alla ricerca per la totale messa in sicurezza di tutti gli edifici pubblici e privati nelle nostre città. La Regione Abruzzo è oggi responsabile di fronte ai cittadini, dal punto di vista istituzionale e politico, sul fronte della divulgazione del rischio sismico e della fondazione del Servizio geologico-sismico che recepisca il quadro normativo europeo e nazionale nonché l’urgente necessità di redigere ed applicare a livello comunale gli studi di microzonazione sismica eseguiti su commissione della Protezione Civile. Duole constatare l’ignoranza scientifica della classe dirigente italiana, come ammesso in altri contesti (e nel suo ultimo libro) dalla professoressa Margherita Hack, astronoma di fama mondiale: a volte i politici si vantano di non capire nulla di matematica e fisica. Aggiungiamo noi: bell’affare! Bella figura di fronte al mondo intero! La comunità scientifica internazionale, però, è il supremo giudice naturale di ogni scienziato e ricercatore che si rispetti. La politica e l’ideologia sono un’altra cosa.
Nicola Facciolini
Nessun commento:
Posta un commento