Il più clamoroso fallimento è stato l’Earthquake General Plan. Osannato in tutti i convegni di Disaster Management, (la disciplina che si occupa degli interventi in caso di disastro) questo piano d’emergenza, calibrato per fronteggiare – nella peggiore delle ipotesi – una replica del Big Quake, il devastante terremoto che sconvolse la costa pacifica degli Stati Uniti nel 1906, era stato redatto per conto dello Stato della California da un’equipe di esperti, urbanisti, sociologi, psicologi… ed era costato quasi cinque milioni di dollari.
Il piano contemplava scenari di eventi sismici, redatti e continuamente perfezionati dal centro di calcolo di quattro università che operavano sotto il controllo del computer dell’Università di Berkeley. Caratteristiche geologiche dei terreni, accelerazione loro impressa dal sisma, vulnerabilità degli edifici e degli impianti, direzione e velocità del vento per definire l’andamento che avrebbero conosciuto gli incendi, giorno e orario del sisma per calcolare la concentrazione delle persone in particolari zone, disponibilità dei servizi di emergenza… questi e altri dati si traducevano per i computer in una stima delle vittime, nella definizione delle strategie da adottare e, quindi, in una serie di precise disposizioni che sarebbero state immediatamente elaborate e trasmesse a tutti gli enti preposti all’emergenza.. Tutto sembrava contemplato e previsto e, nel settembre 1989 una spettacolare esercitazione, svolta alla presenza di esperti giunti da ogni parte del mondo, aveva suscitato un’incondizionata ammirazione per questo piano e cementato il “mito” della protezione civile californiana. Neanche un mese dopo, il 17 ottobre 1989, il terremoto che si abbatté su San Francisco fece andare in “tilt” tutte le strutture della protezione civile. A più di tre ore dal sisma, il quartiere generale dei soccorsi, localizzato a Sacramento, non aveva ancora stabilito un contatto con le squadre di San Francisco; dopo cinque ore, le strutture centrali della protezione civile non sapevano ancora del crollo del viadotto autostradale, sul quale pretendevano di instradare i soccorsi. I morti furono più di trecento, una buona metà di questi, secondo gli esperti, avrebbero potuto salvarsi se i tempi dei soccorsi fossero stati dimezzati.
Ancora peggio è andata per un altro piano di emergenza: quello che avrebbe dovuto affrontare il terremoto di Kobe il 17 gennaio 1995. Già il 12 luglio 1993 la protezione civile giapponese non era riuscita a pianificare l’emergenza nell’isola di Okushiri per un maremoto annunciato da parecchie ore e che finì per provocare 400 morti; ma davanti al caos che ha caratterizzato i soccorsi a Kobe (tanto per dirne una, il primo ospedale da campo è stato installato 36 ore dopo il sisma) lo sbalordimento tra gli esperti di Disaster Management si è trasformato in scoramento. E ha fatto acquisire una sinistra attualità ad uno studio redatto nel 1989 da Luis Theodore, Joseph P. Reynolds e Francis B. Taylor i quali, andandosi a spulciare innumerevoli piani di emergenza scoprirono, che buona parte di questi si basano, per lo più, su ineffabili “coordinamenti”, destinati, durante l’emergenza, a istituzionalizzare conflitti di competenza, e su “risorse” che ancora non esistono; ancora peggio, in molti casi, i piani di protezione civile non sono conosciuti dalla popolazione e, addirittura, nemmeno dagli stessi funzionari che dovrebbero attuarli.
La storia dei piani di protezione civile è cominciata, sostanzialmente, durante la seconda guerra mondiale quando lo sviluppo dell’arma aerea, capace di colpire il retroterra produttivo e logistico delle truppe al fronte, determinò l’esigenza di proteggere le popolazioni civili (Civil Defence). Nel secondo dopoguerra, l’entrata in scena dei missili a testata nucleare, e la “guerra fredda” spinsero il Dipartimento alla Difesa statunitense a commissionare al fisico Ralph E. Lapp uno studio sulle conseguenze di un attacco nucleare russo e un piano di emergenza per minimizzarne gli effetti sulla popolazione e sull’apparato produttivo. Il piano di Lapp diede vita ad un gigantesco programma di Civil Defence: dovunque (nelle scuole, negli uffici, perfino nelle prigioni e nelle chiese) si svolgevano esercitazioni “antibomba” mentre la rete televisiva NBC inchiodava ogni settimana davanti ai teleschermi 18 milioni di americani con la trasmissione “Survival”, caratterizzata da filmati che oggi appaiono sbalorditivi. In uno di questi, ad esempio, un padre, chiuso in uno sgangherato “rifugio antiatomico” costruito alla buona in cantina e posto a qualche metro di distanza dal punto di impatto dell’ordigno nucleare, qualche attimo dopo l’esplosione rincuorava i familiari con un incredibile: <<Bene! È stato meno peggio del previsto! Ramazzate i vetri rotti e usciamo fuori per vedere cos’è successo>>. Un altro filmato mostrava un cartone animato, Bert la Tartaruga, che così arringava i bambini di una scuola elementare che stava per essere centrata da una bomba atomica: <<Appena vedete il lampo di luce, gettatevi sotto i banchi e aspettate lì che i vostri genitori vengano a prendervi!>>
Nel clima di fiduciosa euforia che investiva allora la Civil Defence, quasi nessuno osò esporre perplessità su queste “campagne educative”, su altri “piani di emergenza” come quello redatto, nel 1955, dall’urbanista Harman Khan, (grazie al quale gli Stati Uniti avrebbero potuto sopportare, addirittura, un bombardamento nucleare sovietico di 80.000 megatoni) o sulle “prove di evacuazione” (come l’Operation Alert che, nel maggio 1955, coinvolse 28 milioni di persone) che si riducevano a una sorta di picnic di massa nei paraggi delle città. Nel 1961 fu varato un faraonico programma di costruzione di rifugi antiatomici collettivi che ben presto si arenò per via dell’enorme costo; per lo stesso motivo venne messo da parte il National Industrial Dispersion Policy: un piano che doveva favorire la dispersione dell’apparato produttivo americano per renderlo meno vulnerabile a un attacco nucleare. Ci si ridusse, quindi, a incartare con qualche foglio di piombo corridoi e scantinati di scuole e uffici ribattezzandoli Fallout Shelters (rifugi antiradiazioni), segnalati da minacciosi cartelli gialli che, ancora oggi, troneggiano in molti edifici pubblici statunitensi. Con la fine della guerra fredda, il conseguente ridimensionamento dei programmi di Civil Defence spinse numerosi operatori del settore ad interessarsi di piani di protezione civile destinati, cioè, a fronteggiare emergenze non intenzionalmente prodotte quali terremoti, alluvioni, cicloni… Nacque così – grazie anche agli studi del professore Enrico Quarantelli, della Colorado State University di Boulder – il Disaster Management: una disciplina oggi insegnata in ben 54 università e in 22 istituti post universitari di tutto il mondo e che impegna, anche nel nostro paese, numerosi professionisti. Uno di questi è l’arch. Giuseppe Ferrara, formatosi alla scuola di Disaster Management organizzata dal Centro Comunitario di Ricerca di Ispra.
<<Il mio lavoro è redigere, per le comunità locali, piani di emergenza. Questi scaturiscono dall’analisi di tre elementi: la vulnerabilità ambientale, la vulnerabilità funzionale e la ottimizzazione delle risorse. Il primo elemento si calcola definendo la resistenza di manufatti (quali case, strade, linee elettriche…) ad un determinato evento; il secondo analizza il collasso organizzativo che può investire strutture pubbliche – quali comuni o ospedali – determinato dal fatto che, durante una emergenza, – come ad esempio un grave terremoto – molti degli addetti a questi servizi, abbandonano momentaneamente il posto di lavoro, per accertarsi della sorte toccata ai familiari. L’ottimizzazione delle risorse disponibili, infine, è il “nocciolo” del piano: dopo avere analizzato quali sono i compiti di fondamentale importanza, si affidano a dipendenti ritenuti “affidabili” tutta una serie di disposizioni che devono essere attuate immediatamente dopo il percepimento del disastro; ad esempio, il vigile Tal dei Tali, se il terremoto si verifica di notte non dovrà recarsi al proprio Comando per ricevere disposizioni ma dovrà recarsi immediatamente in quel particolare incrocio assegnatogli dal Piano per smistare il traffico, poniamo, da e per l’ospedale. Un piano di emergenza deve valutare il concatenamento tra i compiti, minimizzare la labilità della catena di comando e controllo, considerare la possibile assenza di alcuni funzionari… Se, poi, il piano contempla il coinvolgimento di centinaia, o addirittura migliaia, di persone le variabili in gioco diventano numerosissime e bisogna necessariamente affidarsi a complessi algoritmi di simulazione e a sofisticati software.>>
<<Perché negli ultimi anni alcuni piani di emergenza, pur realizzati con sofisticate procedure, hanno registrato clamorosi fiaschi?>>
<<Ogni piano di emergenza si basa su uno scenario e cioè su quello che l’evento può, verosimilmente, determinare sul territorio. In alcuni casi, come a Kobe nel 1995 ad esempio, lo scenario era sottostimato; in altri casi, invece, come nel terremoto californiano del 1989, il piano basava tutto il suo funzionamento su alcune strutture che sono immediatamente collassate. C’è da dire, comunque che negli ultimi anni molta strada è stata fatta e, ad esempio, se il terremoto che si è abbattuto sul Los Angeles il 16 ottobre 1999 ha fatto registrare un numero relativamente basso di vittime questo lo si deve ad un ottimo piano di emergenza.>>
Ma qual è la situazione dei piani di emergenza in Italia? Lo abbiamo chiesto al dott. Elvezio Galanti, Dirigente dell’Ufficio Pianificazione del Dipartimento Nazionale alla Protezione Civile.
<<Si sta passando da una visione centralizzata della protezione civile, nella quale gli enti locali dovevano limitarsi a favorire l’arrivo dei soccorsi esterni (che, per quanto tempestivi, arrivano sempre troppo tardi), al concetto di autoprotezione e quindi ad un ruolo attivo delle comunità locali, in primo luogo i Comuni, già dalla primissima fase dell’emergenza. Di conseguenza, cambia anche l’impostazione dei piani di protezione civile che, per troppo tempo, in Italia, sono stati un mero censimento di beni da rendere disponibili ai soccorritori. Questo cambiamento è stato istituzionalizzato da una nuova metodologia per la pianificazione dell’emergenza, il Metodo Augustus, che deve il suo nome ad una frase dell’imperatore Ottaviano Augusto “Il valore della pianificazione diminuisce con la complessità dello stato delle cose”. Bisogna, quindi, imperniare la pianificazione dell’emergenza all’insegna della semplicità e della flessibilità anche perché l’evento, al suo insorgere è sempre diverso da come lo avevano prefigurato i pur scientifici e minuziosi scenari.>>
Come si articola questo metodo nella pianificazione locale dell’emergenza?
<<Introducendo il concetto delle funzioni di supporto (sanitaria, ordine pubblico, tecnica… sono le 9 funzioni per i comuni e 14 per province e regioni) e identificando per ognuna di queste, a livello locale, un preciso responsabile che funga da interfaccia con le analoghe strutture centrali. Questo interfaccia deve strutturarsi anche a livello di Sala operativa, sia essa un CCS (Centro Coordinamento Soccorsi) operante a livello provinciale o un COM (Centro Operativo Misto) operante a livello comunale.>>
Primo Riquadro
Disaster Management: Pianificazione e gestione dell’emergenza
Nel Disaster Management per pianificare l’emergenza ci si serve di “scenari” che prefigurano quello che, verosimilmente, può succedere all’insorgere del disastro; per valutarne gli effetti sui manufatti si utilizzando discipline “deterministiche” (quali la sismologia, la geologia, l’idrogeologia, l’ingegneria…) più complessa è la redazione di scenari riguardanti il collasso di sistemi organizzativi. Per la redazione di questi ultimi – messi da parte sistemi di indagine, in auge fino a qualche anno fa, basati sulla disseminazione di questionari indirizzati alla popolazione o al management e su complicati calcoli che avrebbero dovuto calcolare il comportamento del “sistema antropico” – oggi ci si basa su sistemi quali la “Tecnica di Delfi”, adattata per i disastri da Howard Linstone, che consiste, sostanzialmente nel sottoporre, a più riprese, ad esperti ed amministratori scenari che vengono, così, progressivamente perfezionati e, quindi, risottoposti ad un successivo esame.
Per la redazione dei piani e la gestione dell’emergenza il Disaster Management – oltre che delle metodologie di tattica e strategia militare – si serve di una disciplina finalizzata ad analizzare e ottimizzare le procedure da attuare in una situazione di incertezza: la Ricerca Operativa (Operations Research), nata nel 1940 da un comitato di militari, fisiologi, fisici, matematici.. coordinato dal futuro Premio Nobel Patrick Blackett, per conto della Royal Air Force. Un’applicazione della Ricerca Operativa nella gestione dell’emergenza (sempre caratterizzata da una drammatica corsa contro il tempo) è data dal cosiddetto triage (dal francese “scelta”), tecnica nata per ottimizzare le operazioni della Sanità Militare. Il problema é questo. Dal fronte arrivano all’ospedale militare tre categorie di traumatizzati: la prima (poco numerosa) é costituita da soldati gravemente feriti, ognuno dei quali necessita di urgentissime e intense cure da parte di una numerosa équipe medica; la seconda (numerosa) é costituita da feriti non gravi, ognuno dei quali necessita di urgenti cure mediche da parte di una poco numerosa équipe medica; la terza categoria (molto numerosa) é costituita da feriti non gravi, ognuno dei quali necessita di cure non urgenti da parte di una piccola équipe medica. Su quale dei tre gruppi bisognerà concentrare l’impegno del personale sanitario per salvare il maggior numero di traumatizzati? Il problema é indubbiamente complesso in quanto bisogna considerare e quantizzare numerosi fattori quali la percentuale di sopravvivenza di ogni ferito lasciato senza cure sanitarie, il tempo necessario per curare ogni ferito a seconda del gruppo scelto, il tempo di resistenza dell’équipe sanitaria… A queste valutazioni già difficilmente quantizzabili bisogna aggiungere altre di ordine sociale e psicologico come la disponibilità di un medico ad impegnarsi per molto tempo su un ferito grave mentre altri gemono, e forse muoiono, abbandonati a sé stessi; l’effetto di questa situazione sul “morale” e quindi sulla stessa volontà di sopravvivenza dei feriti, l’esigenza di curare per primi gli ufficiali rispetto ai sottoufficiali e ai soldati… Come di vede si tratta di problemi che pongono gravi considerazioni etiche e morali ma che, come numerose altre tecniche di Disaster Management, sono state, comunque, analizzate, logicizzate in algoritmi e, infine, trasformate in programmi per computer.
Articolo di Francesco Santoianni
Piani di protezione civile
Pubblicato su Newton giugno 2000