Archivi categoria: Energia

L’approccio del circolo Lamasena all’Agricoltura Organica Rigenerativa

Su iniziativa di alcuni soci del Circolo Legambiente Lamasena, Laura Quattrociocchi affiancata da Luca Pupparo, e Giuliano Patrizi, è stato realizzato un incontro tra il coordinatore tecnico di Deafal ONG, Matteo Mancini e la società cooperativa “La Ciera dei Colli” di cui Giuliano Patrizi ne è socio. La Ciera dei Colli, che da quasi due decenni opera sul territorio di Monte San Giovanni Campano si pone tra gli obiettivi, quello di conservare e valorizzare le tradizioni olearie delle colture di ulivi principalmente della varietà autoctona “ciera”presenti, migliorando così le condizioni culturali, economiche e professionali dei soci che ne fanno parte e del territorio che li circonda. Oggetto dell’incontro è stato un corso dedicato all’Agricoltura Organica e Rigenerativa, con risvolti di applicazione pratica allo stabile della società cooperativa monticiana, luogo di incontro delle parti. Molti sono stati gli interessati che hanno partecipato al corso, provenienti da diversi comuni limitrofi alla realtà monticiana, tra cui Veroli, dalla stessa e da comuni anche distanti come Roma.
Deafal (Delegazione Europea per l‘Agricoltura Familiare di Asia, Africa e America Latina) è una ONG costituita nel 2000 ma operativa in modo informale già dal 1998, che promuove lo sviluppo rurale e ha come obiettivi:

  • l’emancipazione e lo sviluppo umano, sociale ed economico dei piccoli produttori agricoli e delle categorie più vulnerabili dei Paesi del Sud e del Nord del mondo, in una logica di cooperazione Sud-Sud e Sud-Nord, oltre che Nord-Sud;
  • la tutela ambientale e la salvaguardia della biodiversità nei Paesi del Sud e del Nord del mondo;
  • la promozione della sicurezza e della sovranità alimentare nei Paesi del Sud e del Nord del mondo.

Per l’Associazione il miglioramento delle condizioni di vita dei produttori agricoli, l’autodeterminazione alimentare delle comunità e la tutela del territorio e dell’ambiente passano attraverso la promozione di un’agricoltura che preservi la biodiversità, rispetti i cicli naturali e riduca la dipendenza iniqua dei produttori dal mercato; in questo senso si riserva un’attenzione particolare alla diffusione delle metodiche dell’ Agricoltura Organica e Rigenerativa, in quanto perfettamente rispondenti alle caratteristiche citate.
Deafal è accreditata al Ministero degli Affari Esteri e della Cooperazione Internazionale, riconosciuta dalla Regione Lombardia, iscritta al Registro Provinciale delle Associazioni di Milano, accreditata al Comitato Cittadino per la Cooperazione Decentrata del Comune di Roma, e iscritta al Registro regionale delle associazioni della Regione Marche.
È socia di CoLomba, COoperazione LOMBArdia, e membro del tavolo Educazione alla Cittadinanza Mondiale di CoLomba Attraverso CoLomba è socia dell’Associazione ONG italiane. Inoltre è socia di Marche Solidali (Coordinamento delle Organizzazioni Marchigiane di Cooperazione e Solidarietà Internazionale) [Fonte Deafal ONG, www.deafal.org ].
A partire da questi presupposti, è stato promosso dai soci sopracitati,  il corso sull’Agricoltura Organica e Rigenerativa, svoltosi presso la sede della società cooperativa “La Ciera dei Colli”, in cui è stato possibile applicare direttamente attraverso le materie prime presenti, i principi dell’Agricoltura Organica (Figura

Figura 1: Partecipanti al corso

Il docente Matteo Mancini (Figura 2), laureato in Scienze Forestali e Ambientali presso la facoltà di Firenze, dopo anni di lavoro intercorsi tra America del Sud e Africa, si è specializzato in Messico in “Agricoltura Organica, disegno Keyline e Cromatografia”. Dal 2009 è Coordinatore tecnico e Consigliere di Deafal ONG, sede di Milano, per la quale si occupa di formazione e assistenza tecnica in tematiche e applicazioni di Agricoltura Organica Rigenerativa, offrendo questi servizi alle aziende agricole e privati che ne fanno richiesta.

Figura 2: Matteo Mancini

Nella prima parte del corso è stata delucidata la composizione del terreno, facendo riferimento in particolare ad una tecnica di analisi qualitativa del suolo, la cromatografia circolare su carta, la quale permette di discriminare oggettivamente, le diverse componenti del suolo diluite in idrossido di sodio, sulla base della loro diversa affinità manifestata nei confronti del nitrato di argento impregnato su carta da filtro. Si può generalizzare l’esito di una analisi cromatografica circolare affermando che suoli poco o per niente fertili, mostrano un cromatogramma (Figura 3) in cui le diverse componenti si presentano ben stratificate, in cui sono evidenti gli accumuli di componente minerale a peso molecolare maggiore vicina al centro, segue la sostanza inorganica, quindi la sostanza organica a peso molecolare inferiore e infine, di rado esclusivamente nei terreni a maggior fertilità è possibile osservare la presenza di attività enzimatiche di origine microbiologica, le quali si separano lungo i confini della corsa circolare cromatografica terminale. Suoli molto fertili al contrario generano cromatogrammi molto più omogenei in cui è difficile distinguere le diverse componenti del suolo se non una chiara presenza della attività microbica. Un’attenta lettura e valutazione dei cromatogrammi spesso arricchisce di molte più informazioni oltre che alla semplice indicazione di fertilità dei suoli, rispecchiano infatti lo stato di salute di questi ultimi, la qualità dei composti, l’abbondanza o meno di un componente rispetto ad un altro, le trasformazioni in atto, lo stato di mineralizzazione, la struttura del suolo e molte altre. Inoltre è necessario associare all’analisi cromatografica, un’analisi chimico-fisica del suolo, in modo da ottenere un’analisi completa e dettagliata dello stato di salute del terreno.


Figura 3: Esempio di cromatogramma di un campione di terreno (Fonte: http://www.biodin.com)

Durante il corso è stato disciolto un dubbioso interrogativo su quale ruolo abbia la pratica di irrigare le coltivazioni con acqua e letame diluito,  la cosiddetta “acqua grassa”, un’azione assai diffusa in passato quando la disponibilità di letame era alta e quando la concimazione minerale chimica era poco applicata. Questa pratica ha un ruolo primariamente fertilizzante e fa perdere la funzione ammendante del letame come tale; quindi l’uso “dell’acqua grassa” come fertilizzante è positivo, ma si deve essere coscienti che viene persa la capacità ammendante del letame, ovvero di strutturazione del suolo, che avrebbe se il letame fosse utilizzato come tale. Se si vuole eseguire un’operazione di concimazione organica come questa, basterebbe utilizzare del letame avicolo ad esempio (il più ricco in azoto), ma bisognerebbe diluirlo in molta acqua per evitare ustioni all’apparato radicale delle piante. In alternativa sarebbe più sicuro un altro tipo di fertilizzazione organica, come quello di diluire circa 4-5 kg di compost in 100 litri di acqua e poi procedere con l’irrigazione.
Viene definito compost il prodotto stabile e ad alta fertilità di degradazione della sostanza organica, ricco in carbonio e azoto, ad alto potere ammendante, capace dunque di cambiare significativamente la struttura del suolo. Tra le esigenze nutrizionali delle piante infatti, gioca un ruolo fondamentale la presenza della sostanza organica (SO), ossia tutta la materia morta di derivazione vivente, vegetale e animale, ricca in carbonio. L’SO diventa utile quando non entra a far parte dei processi di putrefazione, bensì quando subisce una degradazione ossidativa ad opera dei microrganismi colonizzatori del suolo. La sostanza organica quando decomposta a minerali sotto forma di ioni e sali dai microrganismi presenti nel terreno (batteri, protozoi, funghi), è resa disponibile all’assorbimento radicale  e può pertanto solo in questa forma essere assunta dalle piante. In particolare al processo di degradazione della SO segue quando possibile, un processo di riorganizzazione e polimerizzazione di questa, a formare l’humus, che rappresenta esattamente

la frazione di SO decomposta e derivata dall’attività di sintesi microbica, opportunamente riorganizzata e assemblata insieme a particelle minerali, sostanze a questo stadio biodisponibili per l’assorbimento radicale. Quando un terreno è ricco di SO, riesce oltre ad essere fertile, a trattenere meglio l’acqua e quindi a diminuire la perdita di acqua dopo una pioggia o a seguito di un’irrigazione, attraverso il percolamento nel sottosuolo. L’1% di SO riesce a trattenere infatti 200’000 litri di acqua per ettaro di terreno.
Immediatamente dopo la decomposizione della materia morta derivata dagli esseri viventi vegetali e animali, vi è la fase di miscelazione meccanica delle sostanze derivate dal primo processo di decomposizione, promossa da invertebrati soprattutto lombrichi, i quali “impastano” la frazione minerale del suolo, con la frazione organica in decomposizione.
Fondamentale è questa fase di lavoro dei lombrichi in quanto preparano il terreno alla fase successiva di sintesi enzimatica in cui i batteri e soprattutto funghi completano attraverso l’azione enzimatica, la destrutturazione del materiale organico che viene completamente degradato a sostanze organiche semplici quali amminoacidi, zuccheri, vitamine, i quali possono essere sottoposti a ulteriore decomposizione e definitiva mineralizzazione (Figura 4).

Figura 4: Ciclo di decomposizione della SO, e mediazione dei lombrichi delle sostanze degradate verso la microflora[Fonte: http://www.verdeepaesaggio.it]

Gli elementi chimici ormai inorganici rilasciati dal processo di mineralizzazione, quali ferro, azoto, zolfo, potassio, nichel e tutti quelli presenti nella materia organica vivente di provenienza, sono ormai solubili e quindi dilavabili in acqua e disponibili all’assorbimento dalle radici delle piante. Per avvenire la sintesi dell’humus invece, durante la fase di sintesi enzimatica, altri microrganismi, se in presenza di opportune condizioni di umidità, temperatura e ossigenazione, possono utilizzare e trasformare le sostanze organiche intermedie fino a contenere un rapporto di carbonio e azoto (rapporto C/N) con valore compreso tra 10 e 25. Quando il rapporto C/N raggiunge questi valori, permette al prodotto delle trasformazioni biochimiche della sostanza organica, di essere definito humus. L’humus così formato è detto solubile, in quanto ancora a rischio di andare incontro al fenomeno di mineralizzazione, cioè alla scomposizione delle molecole organiche in elementi inorganici (ferro, azoto ecc…). Per evitare di andare incontro a mineralizzazione, l’humus deve essere stabilizzato, per addizione dei composti umici solubili all’argilla. Quando i composti umici si legano all’argilla presente nel terreno, si formano dei complessi argillo-umici stabili, resistenti al dilavamento da acqua piovana e più resistenti alle temperature, permettendo così all’humus stabile di rilasciare progressivamente e nel tempo le sostanze minerali alle piante. L’humus stabile rappresenta dunque un accumulatore di fertilità. I processi biochimici che avvengono nel terreno, fluiscono in eventi microbiologici che portano alla continua formazione e smantellamento dell’humus; si passa infatti dalla decomposizione della sostanza organica, attraverso un’intensa attività di sintesi alla formazione dell’humus, che a sua volta si consuma attraverso la mineralizzazione delle molecole umiche organiche, in elementi inorganici necessari alla nutrizione delle piante. Questo ciclo avviene continuamente nel tempo, persiste il consumo di humus con la mineralizzazione e dunque persiste la necessità di reintegrare continuamente la sostanza organica al terreno. Oggi, nell’era della concimazione chimica, si assiste ad un blocco sempre più frequente di questo ciclo naturale di formazione e smantellamento dell’humus. La sostanza organica non riesce a depositarsi in maniera sufficiente, perché ad esempio gli erbicidi vanno a bloccare la crescita di molte specie di piante spontanee che all’uomo danno fastidio, le infestanti, che sarebbero invece tornate utili in natura perché avrebbero concimato gratuitamente il terreno, fornendo cosi SO di origine vegetale. Ancora i terreni sono poveri di SO perché sottoposti ad una continua azione meccanica di trinciatura delle erbe per liberare il terreno dalle infestanti e prepararlo alla coltivazione di una o poche colture oppure semplicemente per renderlo esteticamente bello, simile ad un campo da golf. Inoltre i terreni sono poveri di fertilità perché e soprattutto con la pratica della concimazione chimica, seppur presente la SO da decomporre, questa ormai non è più velocemente degradabile come avviene invece nei terreni non sottoposti a concimazione chimica. Semplicemente, ciò che avviene è uno sbilancio energetico, che porta tutti i processi microbiologici naturali a non avere di continuo la possibilità di attivare tutti i meccanismi necessari per la trasformazione della SO.  Fornendo infatti il concime, si hanno già i minerali a disposizione e quindi nelle attività del suolo, vengono inibiti tutti i processi che portano alla liberazione dei minerali a partire dalla SO. La concimazione chimica dunque può essere considerata una sorta di alimentazione artificiale forzata della pianta, che inibisce tutte quelle trasformazioni biochimiche del terreno volte allo smantellamento della SO in decomposizione e successiva sintesi dell’humus e quando fornita, accelera i meccanismi che mettono a disposizione il nutrimento nella pianta stessa, ma impoveriscono la pianta costringendola a nutrirsi di soli pochi nutrienti (aggiunti con i concimi) rispetto ai circa 30 minerali necessari per il sostentamento di un buono stato di salute, debilitandola anche dal punto di vista della difesa contro i patogeni in quanto malnutrita.
Le piante si nutrono di minerali derivati soprattutto dalla decomposizione della SO e probabilmente, nuove evidenze scientifiche suggeriscono che riescano ad assorbire anche molecole più complesse della SO, quali ormoni; quindi più la SO è abbondante e decomposta e più la pianta riesce a nutrirsi bene e quindi a potenziare quelle che sono la crescita dell’apparato fogliare, la fruttificazione e la resistenza ai patogeni. In uno studio sperimentale condotto proprio dal Dottor Mancini, si è visto che spesso la resistenza ai patogeni tende a migliorare quando lo stato nutrizionale della pianta è in buone condizioni, ad esempio aggiungendo al terreno un biofertilizzante. Nello studio eseguito in Toscana su colture di vite (Vitis vinifera spp.) infatti, il confronto del terreno di controllo con il terreno trattato con biofertilizzante ha mostrato un aumento della resistenza al patogeno fungineo Peronospora sp. del 50%, mentre nel terreno trattato con i classici agenti chimici fungicidi a base di rame e zolfo, ha mostrato una resistenza pari al 90%; ciò sta a significare che il più efficace nei confronti dell’infezione funginea, è stato indubbio il trattamento chimico, ma il trattamento a base di biofertilizzante non è risultato indifferente alla pianta, ha permesso altresì di proteggere dall’infezione di Peronospora sp. il 50% della popolazione di vite oggetto di studio, mostrando dunque un effetto potenziante la resistenza all’infezione dal fungo.
Alla lezione teorica è seguita la parte applicativa (Figura 5), in cui è stata spiegata l’importanza della scelta delle materie prime da selezionare, prima di tutto sulla base della disponibilità della realtà aziendale. Nel nostro caso, all’interno del frantoio della Ciera dei Colli, sono stati prelevati volumi di sansa e cippato di olivo, i quali addizionati a letame, carbone e cenere sono stati opportunamente elaborati fino ad ottenere un primo immaturo compost, al quale viste le temperature rigide della stagione invernale, è stato addizionato un inoculo di lievito liofilizzato risvegliato in acqua tiepida zuccherata.

 

Figura 5: Produzione del compost all’interno della Ciera dei Colli

Secondo gli studi del Dottor Mancini e colleghi, attraverso analisi chimico-fisiche e cromatografiche di diversi compost, i risultati migliori con un compost a più alto potere fertilizzante, si ottengono addizionando un 60% di sansa, un 30% di cippato e un 10% di letame. La sansa in questo caso, funge da principale fonte di carbonio, ma può essere sostituita a seconda della materia prima disponibile, per l’appunto anche da paglia o residui alimentari ad esempio. La seconda condizione affinché si generi un buon compost è la presenza di cippato, originato ovvero da potature tritate con una cippatrice; il cippato infatti oltre a rappresentare anch’esso una fonte di carbonio, funge da strutturante donando resistenza al compost. Come descritto precedentemente nella definizione di compost, è necessaria una fonte di azoto, che si può ottenere ad esempio dal letame di animali da allevamento, in quanto prodotto comune di escrezione, ma anche da tessuti di questi, derivanti ad esempio dagli scarti di macellazione, come pelle, artigli, corni, ossa e così via. Si può migliorare ulteriormente la qualità del compost aggiungendo carbone vegetale, combustibile ottenuto dal processo di carbonificazione della legna in presenza di limitate quantità di ossigeno. Il carbone, ricco di proprietà, funge da spugna naturale per trattenere acqua e metalli pesanti,rappresenta un habitat per i microrganismi del suolo e ha potere tamponante sulle variazioni di pH che avvengono nei terreni acidi e basici. Può inoltre essere prodotto facilmente a livello industriale. L’addizione al miscuglio di cenere, prodotto finale solido della combustione della legna, ricca in sali minerali, soprattutto carbonati e ossidi, a pH fortemente basico, rappresenta un’ottima soluzione fertilizzante per tutti quei terreni di natura acida che caratterizzano la maggior parte del territorio Ciociaro. In alternativa in presenza di terreni basici, al posto della cenere, può essere utilizzata ad esempio farina di roccia di natura acida in quanto le rocce estratte per produrla sono di origine vulcanica.
Vengono stratificati questi componenti l’uno dopo l’altro fino a formare un bel cumulo di circa 1-1,5 metri di altezza ideale, e si lasciano a reagire, dopo opportuna valutazione sensoriale della quantità di acqua presente nel miscuglio di compost immaturo. Se l’acqua nel cumulo non è sufficiente, si potrebbe aggiungere persino l’acqua di vegetazione, altro importante scarto di produzione dei frantoi, la quale verrebbe prontamente degradata dai microrganismi presenti. Ciò potrebbe rappresentare una valida modalità di riciclo di questa acqua, certo non in quantità industriali, ma comunque una alternativa di uso valida dal punto di vista ecologico. Successivamente alla valutazione sensoriale della presenza di acqua, si lascia il cumulo al riparo sotto una tettoia oppure coperto da un telo per evitare che si arricchisca di acqua e quindi vada in putrefazione.  Durante le prime due settimane di reazione, si monitora la temperatura del cumulo, e questa dovrebbe raggiungere una temperatura ottimale di circa 65^C entro le due settimane. In questa fase di igienizzazione, all’interno della quale tutti i batteri nocivi ad esempio quelli che promuovono la putrefazione del compost, vengono debellati dalla forte temperatura, su azione dei batteri utili, è necessario capovolgere e miscelare di continuo il cumulo per evitare che la temperatura ecceda oltre questo valore. Dopo circa 3-4 settimane di reazione, si va incontro alla fase di stabilizzazione del compost, in cui intervengono i funghi e non è più necessario miscelare il compost in quanto la temperatura sarà diminuita al di sotto dei 40^C.  Si raggiunge la fase di maturazione finale dopo due mesi dalla formazione del cumulo, nella quale vengono richiamati i lombrichi, i quali vanno a colonizzare il compost ormai maturo, aumentandone la qualità.
In un terreno fortemente debilitato, povero di nutrienti, per niente fertile, si può somministrare compost maturo alla quantità di 500 quintali per ettaro per anno. Dopo circa 2-3 anni di somministrazione, dovrebbe riacquistare la fertilità, salvo altre condizioni. Una volta recuperata la fertilità del terreno, questa può essere mantenuta somministrando circa 200 quintali per ettaro per anno. Le raccomandazioni del Dottor Mancini inoltre si soffermano sul periodo di applicazione del compost tramite uno spandiletame, preferibilmente entro Gennaio-Febbraio, per piantumazioni che interessano Marzo-Aprile. Si può spandere il compost direttamente sul prato, e poi erpicarlo a poca profondità con un erpice, anche sul suolo sottostante ad un uliveto. È sconsigliato l’uso della fresa. Bisognerebbe poi innaffiare per circa 1 ora a intervalli di 3 giorni il terreno addizionato di compost, in quanto grazie alle capacità di quest’ultimo, il terreno diventa anch’esso capace di trattenere meglio l’acqua. In terreni scarsamente o per niente fertili invece si è costretti ad irrigare con grandi quantità di acqua, in quanto questi sono privi di capacità di ritenzione di questa risorsa. L’uso di compost quindi riduce la perdita di acqua, comportando sia un guadagno in termini della risorsa, sia una diminuzione dei consumi necessari ad applicarla, evitando così inutili sprechi. Ulteriori nozioni sono state fornite dal Dottor Mancini, in merito alla funzione e utilità dei sovesci con colture di copertura, come farro, veccia, trifoglio bianco, sulla, orzo, grano e di come praticarli; come eseguire un pascolamento razionale, senza evitare il sovrapascolo, come riprodurre e diffondere microrganismi utili come preparati fogliari per proteggere l’attacco dei patogeni, o come corroboranti ad azione biostimolante e potenziatrice della resistenza delle piante ai patogeni oppure come pre/pro-biotici per gli animali. Sono state fornite anche nozioni importantissime su come ottimizzare la distribuzione dell’acqua, da aree fortemente ricche, ad esempio adiacenti ad un corso d’acqua, torrente o canale di irrigazione, verso aree aride, attraverso la realizzazione delle curve di dislivello del terreno, altresì definite “disegno Keyline” o “linee a chiave”.
Per il frantoio La Ciera dei Colli e tutti i partecipanti del corso, questa esperienza sicuramente avrà acceso dei lumi di presa di coscienza, su come l’agricoltura organica rappresenti la chiave di volta del futuro, visti gli sfruttamenti agricoli a cui i terreni attuali sono sottoposti dalle monocolture, dalla concimazione chimica, dall’ eccessiva meccanizzazione dell’agricoltura, dalla riduzione del pascolamento animale e non da ultimo dall’inquinamento generalizzato della biosfera. Potrebbe diventare l’unica soluzione di miglioramento ecologico, conveniente anche dal punto di vista economico, chiudendo il ciclo produttivo
delle materie prime, che attraverso gli scarti vengono elaborate a fornire nuove materie prime, potrebbe innescare una nuova “rivoluzione agricola” a stampo ecologico, la quale ha più possibilità di successo se innescata “dal basso”, dai contadini stessi, che dovrebbero osservare con razionalità quello che la natura offre, essere in grado di sviluppare azioni più salutari per se stessi e l’ambiente che li circonda in modo da garantirne la perpetuabilità naturale, ed essere impassibili di fronte agli stimoli poco ecologici dettati dai gruppi di potere.

Dott.ssa Sara Leo

Programma II edizione Festa dell’Impegno Civile

Il programma della Festa dell’Impegno Civile – 19/20/21 Settembre in Piazza Aldo Moro a Colli – Monte San Giovanni C.  Tre giorni di eventi per rappresentare il mondo del volontariato nelle sue tante declinazioni,  nell’ambientalismo, nell’assistenza ai più deboli, nella protezione civile e nel primo soccorso.   Si terranno convegni sull’acqua quale motore di sviluppo delle attività umane nel bacino idrografico della Valle del Liri e nell’alveo del torrente Amaseno. Inoltre, si dibatterà, con l’aiuto di professionisti,  di ecologia, consumo del suolo, isola ecologica e energie rinnovabili.

20140911-ProgrammaFesta

 

Una luce nell’oscurità dello spazio

384px-Paolo_A._Nespoli_2010

Nell’Ottobre del 2011 ho avuto il privilegio e l’onore di incontrare il Maggiore Paolo Nespoli, famoso astronauta Italiano, proprio qualche mese dopo essere rientrato dalla sua seconda missione sulla Stazione Spaziale Internazionale denominata Expedition 27.

In quell’occasione ho avuto modo di visionare delle bellissime immagini della Terra scattate durante la missione, ed un brivido di emozione mi ha colpito quando, tra le varie proiezioni, ho intravisto la forma del nostro Stivale.

iss030e074752

“È bellissima l’Italia da lassù”, ho pensato tra me e me a primo impatto.

Guardando bene la foto  mi sono reso conto di come le luci possano svelare delle informazioni importanti sul Paese, come ad esempio le differenze tra le zone più ricche e più povere, le differenze tra Nord e Sud e tra le città più densamente popolate e le zone rurali.

Poi invece, guardando ancora meglio, mi sono reso conto che passato il confine, sia verso Nord che verso Est, non si vedono più luci.

Quella sensazione di patriottismo che pochi secondi prima si era timidamente intravista è sparita di colpo quando mi sono reso conto di quanta energia elettrica sprechiamo in più rispetto ai nostri vicini di casa.

Ma perchè dallo spazio l’Italia è più illuminata delle altre nazioni europee?

Sicuramente una questione di illuminazione sovradimensionata rispetto alle reali esigenze, un po’ frutto della bassa politica locale che installa i lampioni davanti le case della gente come ringraziamento dopo le elezioni.

Non è  solo un sovradimensionamento, però, ma anche un problema strutturale di portata ben maggiore. Tutte quelle luci, infatti, sono anche il segnale evidente che i nostri lampioni stanno illuminando il cielo invece che la terra!

E se per alcuni nostalgici queste luci sono pittoresche e romantiche, per gli scienziati invece rappresentano quello che in gergo tecnico si chiama inquinamento luminoso, ovvero il fenomento causato dall’irradiazione incontrollata di luci intense verso la volta celeste.

L’inquinamento luminoso provoca danni sia di natura ambientale che culturale, ma anche economica.

L’eccessiva illuminazione artificiale crea difficoltà di orientamento in molti animali e l’alterazione dell’orologio biologico (ritmo circadiano) nell’uomo, negli animali e nelle piante.

Per effetto di un’illuminazione selvaggia, inoltre,  le stelle diventano diventano spesso invisibili nei cieli delle nostre città. E non dimentichiamo che è proprio grazie quelle stelle che l’uomo ha fatto le sue più grandi conquiste. Dalla trigonometria all’orientamento, dalla scoperta dell’America alla rivoluzione copernicana. Il cielo e le stelle da sempre sono stati al centro delle grandi riflessioni esistenziali dell’uomo, religiose, filosofiche, matematiche, fisiche ed astronomiche.

E sembrerebbe paradossale adesso affermarlo, ma una lampadina ci illumina un gradino, ma ci oscura il cammino.

Se riuscissimo a controllare in maniera intelligente la direzionalità dei fasci di luce, evitando che l’energia elettrica convertita in luminosa venga dissipata in direzioni inutili,  potremmo risparmiare anche il 50% dell’energia elettrica a parità di risultato.

Il passaggio ai LED è necessario al più presto possibile, sia per risparmiare energia, sia per controllare la direzionalità dei fasci luminosi.

Proprio due settimane fa si è festeggiato il decimo anniversario dell’iniziativa M’ILLUMINO DI MENO, una giornata dell’anno in cui vengono spenti i riflettori sui più importanti monumenti allo scopo di sensibilizzare il pubblico al risparmio energetico.

Ben vengano queste iniziative, ma nel nostro piccolo spegniamo le luci superflue quando possiamo. Ci guadagneremo sia economicamente che in termini di visibilità, perchè il nostro sguardo potrà andare oltre e riscoprire quelle cose meravigliose che hanno ispirato i nostri antenati.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Autore: Giovanni Gasparri (Linkedin | Facebook)
Data di Pubblicazione  28 Febbraio 2014
Ultima Revisione: 28 Febbraio 2014

dotEPUB

Scarica l’articolo in formato .mobi per Kindle
Scarica l’articolo in formato .epub per gli altri lettori e-book

PER APPROFONDIRE

LICENZA

© Questo articolo, denominato “Una luce nell’oscurità dello spazio” di Giovanni Gasparri  è fornito integralmente sotto licenza internazionale Creative Commons Attribution-ShareAlike 4.0.

Per consultare una copia della licenza d’uso visita il link http://creativecommons.org/licenses/by-sa/4.0/deed.it.

Tu hai il diritto di leggere, copiare, stampare, salvare, modificare, migliorare, distribuire, vendere, fotocopiare o correggere il presente lavoro. Le uniche restrizioni sono che se lo distribuisci, devi citare l’autore ed il titolo del documento, e se prendi spunto da questo lavoro per creare un’opera derivata devi allo stesso modo citarli. Con questa licenza ti diamo praticamente ogni libertà di utilizzare le informazioni, ad eccezione di togliere quella libertà ad altri.

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Fotovoltaico: imminente energia dell’avvenire – di Roberto Vacca

Su gentile concessione dell’autore Roberto Vacca abbiamo il piacere di pubblicare integralmente l’articolo dal titolo “Fotovoltaico: imminente energia dell’avvenire” del 2/11/2013.

Roberto Vacca

Ing. Roberto Vacca, famoso scrittore, divulgatore scientifico, saggista e matematico

Dopo i rapidi e notevoli aumenti del prezzo del petrolio a partire dagli anni Settanta, si associa quasi sempre a ogni considerazione su questioni energetiche la parola “crisi”. Continuano a essere citati disastri planetari visti come imminenti in base a dati incompleti e interpretati in modi erronei. Fra questi: il riscaldamento globale del pianeta attribuito al consumo eccessivo di carbone, petrolio e gas e l’esaurimento dei giacimenti petroliferi. L’avvenire del clima viene vaticinato usando modelli non validati, né validabili. La fine del petrolio è temuta da chi ignora che il livello delle riserve accertate continua a crescere, che l’origine del petrolio non è biologica e che esistono giacimenti enormi a grande profondità.

Invece le tendenze attuali indicano che avremo energia abbondante, non inquinante, a basso prezzo. Assumerà importanza primaria il fotovoltaico. L’ ottimismo non è dovuto solo alla recente notevole crescita, ma al velocissimo aumento dei rendimenti che, in laboratorio, sono saliti molto oltre il 15% tipico delle celle di silicio cristallino che, appunto, trasformano in elettricità meno di un sesto dell’energia dei raggi solari. Il trend di questo progresso sembra avviato a continuare. I rendimenti di celle fotovoltaiche che concentrano la radiazione solare anche 100 volte, crescono rapidamente. Varie industrie e centri di ricerca [fra cui: le americane Spectrolab, Amonix, Solar Junction, la giapponese Sharp e l’università australiana del South Wales] hanno superato il rendimento del 44% con un costo che si stima possa scendere a poco più di 2 dollari per Watt installato (cui bisogna aggiungere i costi delle infrastrutture e dei convertitori da corrente continua in alternata).

In Germania e in Italia costruttori e utenti hanno installato molto fotovoltaico. Conveniva perché interessanti incentivi statali andavano a chi lo adottava. Le risorse per questi aiuti sono state ottenute aumentando le tariffe agli altri utenti. Quindi il prezzo del kiloWattora in Germania e in Italia è fra i più alti in Europa (vedi tabella in fondo), ma non ha una correlazione significativa con la produzione industriale, né con l’andamento dell’economia in generale.

Ora gli incentivi diminuiscono e la crescita del fotovoltaico rallenterà. Però è stata superata una soglia importante: in Italia la potenza degli impianti per la generazione di energia eolici e fotovoltaici (24.500 MegaWatt) è maggiore di quella installata degli impianti idroelettrici (18.200 MW). Questi possono essere messi in funzione a piacere – in qualsiasi momento – senza vincoli. Gli eolici non danno energia se non c’è vento e i fotovoltaici non ne danno se non c’è il sole. La produzione di energia eolica più solare nel 2012 è stata di 32.269 GigaWattora (GWh). Quella di energia idroelettrica è stata di 43.854 GWh. Al tasso di crescita attuale, il fotovoltaico supererà l’idroelettrico entro un paio d’anni.

L’energia solare è tanto abbondante che per soddisfare il fabbisogno mondiale, basterebbe trasformare in elettricità anche solo col rendimento dell’1% la radiazione solare che incide sui deserti. Perché, allora, non si risolvono tutti i problemi energetici sfruttando celle foto-voltaiche? Perchè le celle foto-voltaiche sono ancora costose e il loro rendimento è ancora basso.

Il costo per installare 1 kiloWatt di potenza elettrica fotovoltaica è di 3.000 €. Quello per installare 1 kW idroelettrico o termoelettrico è poco più di 1.000 €. Alle nostre latitudini il sole trasmette a ogni m2 di superficie terrestre una potenza di circa 1.000 Watt. Le celle fotovoltaiche producono, quindi, circa 150 Watt/m2. Se coprono 1 km2 , producono 150 MegaWatt per 2.000 ore l’anno: cioè 300 GigaWattora. Gli impianti termoelettrici italiani hanno una potenza di 80 GigaWatt (equivalenti a 80 grandi centrali nucleari) e funzionano in media 2.700 ore l’anno producendo 220 TWh (TeraWattora = migliaia di GigaWattora). Sostituendoli col fotovoltaico, si risparmierebbero gas e carbone. La potenza richiesta sarebbe di 110 GW [80 GW x (2700/2000)] e l’area occupata (con rendimento attuale del 15%) di 730 km2 sarebbe (circa il 2,4 per mille di quella del Paese): ingombrante, ma non impensabile. L’impresa richiederebbe un investimento di 330 miliardi di € solo per i pannelli fotovoltaici a cui vanno aggiunte le infrastrutture e i sistemi per immagazzinare l’energia (prodotta quando c’è il sole e utilizzata anche quando non c’è). A questo scopo si possono usare batterie e si può pompare l’acqua dai bacini bassi ai laghi e a nuovi invasi a quote alte degli Appennini e delle Alpi. Abbiamo già oltre 7 GW di impianti di pompaggio; ne andrebbero costruiti altri e andrebbero riprogrammate le attività industriali e civili per ripartire la potenza nel tempo.

Destinando al pompaggio la metà della potenza fotovoltaica, cioè 55 GW, il costo delle centrali necessarie sarebbe di 55 miliardi di euro. Valutando in 2 ore/giorno il tempo in cui la potenza fotovoltaica va immagazzinata, l’energia prodotta richiederebbe in alternativa 110 GWh di batterie al litio con un investimento di 55 miliardi di € [500 €/kWh] dello stesso ordine di quello per le centrali di pompaggio. Con batterie al sale (che paiono imminenti) l’investimento in batterie si ridurrebbe al 40%. Possiamo stimare, per ora. che l’investimento totale debba essere circa di: 400 miliardi di €: un sesto del PIL.

Se il rendimento del fotovoltaico arrivasse al 40%, l’area occupata sarebbe di 270 km2 (meno dell’1 per mille di quella del Paese) e si occuperebbero anche le aree liberate dagli impianti termoelettrici dismessi. Si può anche pensare, con maggior fantasia, a coprire la superficie dei bacini idroelettrici con zattere coperte da pannelli fotovoltaici. Ho fatto il conto sulle centrali abruzzesi di Provvidenza, S. Giacomo e Montoro (900 MW di potenza) alimentate dal lago di Campotosto (superficie di 10 km2). Con la tecnologia attuale, le celle sul lago produrrebbero 1,5 GW e con un rendimento del 40%, 4 GW – oltre 4 volte di più della potenza idroelettrica.

Il rendimento massimo teorico è = 1–(T2/T1) = 1 – (293/6000) = 0,951, ove T2 è la temperatura ambiente (293°K = 20°C) e T1 (6000°K) è la temperatura della superficie solare. Il fisico inglese P.T. Landsberg ha dimostrato nel 1977 che il rendimento massimo teorico è del 93,3 %.

L’iniziativa più urgente è investire in ricerca e sviluppo per realizzare celle fotovoltaiche con rendimenti crescenti – a costi accettabili. La Commissione Europea dovrebbe indire gare e arruolare le aziende europee hitech. I governi dei 27 Paesi dell’Unione dovrebbero appoggiare energicamente questa impresa raggiungibile e risolutiva.

Tabelle

Paese
€/kWh usi domestici
€/kWh usi industriali
Media EU27
0,197
0,118
Danimarca
0,297
0,099
Germania
0,268
0,130
Italia
0,230
0,199
Francia
0,145
0,079
Romania
0,108
0,014
Prezzo energia elettrica in alcuni Paesi europei (2012) – Fonte: EUROSTAT
 

Anno

Fotovoltaico

Eolico

Fotovolt + eolico

Idroelettrico

2007

39 GWh

4034 GWh

4073 GWh

38481 GWh

2008

193

4861

5054

47227

2009

676

6543

7219

53443

2010

1905

9127

11032

54407

2011

10795

9857

20652

47767

2012

18862

13407

32269

43854

Energia prodotta in Italia da fonti rinnovabili – Fonte: TERNA
 
IM000982.JPG

© Roberto Vacca, http://www.robertovacca.com, Tutti i diritti riservati.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Tempesta solare scampata: e la prossima? – di Roberto Vacca

Su gentile concessione dell’autore Roberto Vacca abbiamo il piacere di pubblicare integralmente l’articolo dal titolo Tempesta solare scampata: e la prossima?” del 05/3/2012.

Roberto Vacca

Ing. Roberto Vacca, famoso scrittore, divulgatore scientifico, saggista e matematico

L’abbiamo scampata.

Il 23/1/2012 satelliti e stazioni a terra segnalarono in arrivo dal sole una tempesta di protoni: quelli con alta energia sono passati da 10 a 7500 per cm2 e per secondo [vedi diagramma]. Poi il flusso di protoni si è affievolito. Se fosse cresciuto molto, avremmo avuto disastri. Anche in Italia il cielo notturno si sarebbe colorato di verde, viola e rosso: aurore boreali che si vedono vicino ai poli. Poi sarebbe diventato rosso sangue. Grossi blackout ci avrebbero tolto l’elettricità. Le linee telefoniche e telegrafiche fuori uso avrebbero impedito gli interventi di emergenza. Ferrovie, gasdotti e oleodotti avrebbero subito danni gravi. Il blocco di reti e tecnologia nelle società più avanzate, prive di energia, potrebbe causare vittime a milioni.

Sono eventi, a decine di anni uno dall’altro, causati dal vento di protoni emessi dal sole: vanno a velocità fino a 7 milioni di km/h e arrivano a noi in circa 20 ore. Queste tempeste si chiamano CME: Coronal Mass Ejection: espulsione di massa dalla corona solare e proiettano miliardi di tonnellate di protoni. Non è fantascienza: SPECTRUM (la rivista degli ingegneri elettrici USA) questo mese dedica all’argomento un lungo articolo.

I protoni seguono traiettorie elicoidali. Le CME più intense producono campi magnetici giganti interagenti con la magnetosfera terrestre. Quindi correnti elettriche molto intense fluiscono nell’aria della stratosfera che a 50 km di quota è un buon conduttore. La tempesta geomagnetica induce sulla superficie terrestre forti correnti elettriche che passano nel terreno, nelle reti elettriche ad alta tensione, nelle tubazioni, nelle rotaie, nei cavi sottomarini. In conseguenza le reti vanno fuori servizio. Sono più a rischio le centrali elettronucleari: senza energia elettrica dalla rete non possono raffreddare i nuclei che possono fondere. In Europa, USA, Cina si potrebbero avere decine di disastri tipo Fukushima.

È meno tragico, ma molto spiacevole, il rischio di fusione degli avvolgimenti dei grandi trasformatori ad altissima tensione (765 kV in USA, 1000 kV in Cina). Ogni unità pesa 200 tonnellate e costa più di 10 milioni di euro. Non sono tenuti a magazzino e la produzione richiede molti mesi.

Anche i terroristi potrebbero farne saltare alcuni, ma un CME ne distruggerebbe decine bloccando per anni l’energia di continenti. I trasformatori si possono proteggere installando condensatori sulla messa a terra del neutro e bypassandoli con tubi elettronici per scaricare a terra le sovracorrenti alternate.

Queste tecniche, però, non sono state sperimentate in pratica. I CME sono rari. Nel 1859 il più grave, negli Stati Uniti fu preceduto da aurore boreali e cielo rosso a basse latitudini. A quel tempo non esistevano reti elettriche, ma andarono distrutte molte linee telegrafiche.

Un altro CME nel 1921 bloccò telefoni e telegrafi in Svezia e negli Stati Uniti e mise fuori servizio i sistemi di scambi e segnali della Ferrovia Centrale di New York. Le reti elettriche di energia, poco estese all’epoca, non subirono danni gravi. Nel 1989 i cieli colorati da un CME furono interpretati come lo scoppio di una guerra nucleare, ma in Canada ci fu un blackout di un giorno che lasciò senza energia elettrica tutto il Quebec.

Qualche giorno fa Pete Riley della Predictive Science di San Diego (un centro di ricerca sponsorizzato dalla NASA e dalla National Science Foundation – vedi: www.predscience.com/portal/home.php/) ha pubblicato suoi calcoli secondo i quali ci sarebbe una probabilità del 12,5 % che entro il 2020 si verifichi una Coronal Mass Ejection. L’affermazione sembra azzardata – ma il centro di Riley sembra affidabile.

Giornali, televisioni, politici e politologi non parlano dei rischi dovuti agli arsenali nucleari, né di questi – meno letali, ma significativi. Dovrebbero farlo.

© Roberto Vacca, http://www.robertovacca.com, Tutti i diritti riservati.

Flusso di protoni dal sole il 24/1/2012 – Fonte: Space Weather Prediction Center, NOAA

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Diario sui robot di Fukushima – di Roberto Vacca

Su gentile concessione dell’autore Roberto Vacca abbiamo il piacere di pubblicare integralmente l’articolo dal titolo “Diario sui robot di Fukushima” del 10/6/2012.

Roberto Vacca

Ing. Roberto Vacca, famoso scrittore, divulgatore scientifico, saggista e matematico

A monte del disastro della centrale nucleare di Fukushima dell’11 Marzo
2011, erano mancate difese adeguate. La rete elettrica giapponese era divisa in due parti a frequenze diverse (50 Hz e 60Hz) fra le quali un convertitore di frequenza poteva (e può) trasmettere solo l’uno percento della potenza generata.

La scelta della località della centrale era stata disastrosa: pericolo di tsunami di
40 metri un paio di volte al secolo e difese contro il mare del tutto inadeguate.
Avvenuto il disastro, i tecnici non potevano entrare nelle centrali per non subire
gli effetti di radiazioni nucleari pericolose. Si poteva rimediare facendo entrare
nei fabbricati robot radiocomandati muniti di telecamere. Quelli giapponesi,
però, avevano telecamere inadatte a funzionare in presenza di radiazioni.
Una settimana dopo il maremoto, il costruttore americano iRobot mise
gratuitamente a disposizione due piccoli robot Packbot e due più grandi robot
Warrior 710 muniti anche di braccia meccaniche per rimuovere detriti e rottami e manipolare oggetti.
I tecnici giapponesi dovettero essere addestrati a usarli.
L’impiego pratico potè iniziare solo un mese dopo il disastro. I robot erano
muniti di 5 telecamere di cui una a raggi infrarossi, di un dosimetro, un
analizzatore di particelle e uno dei tassi di ossigeno, idrogeno e gas organici.
Ogni robot ha un ricevitore GPS in modo che la sua posizione viene determinata
esattamente quando è all’esterno. Dentro i fabbricati, la posizione viene calcolata o stimata dalle immagini delle telecamere.
Le difficoltà incontrate erano documentate (tra aprile e luglio 2011) dal
diario di un operatore giapponese, noto solo con lesue iniziali S.H.

I diari erano intitolati “Dico tutto quel che voglio”. Le note di S.H. sono state scaricate da Web (prima che fossero cancellate) da un redattore del mensile SPECTRUM dell’Institute of Electrical and Electronics Engineers.

Ne risultano situazioni gravi e critiche. S.H. racconta che dopo una lunga operazione in cui aveva dovuto avvicinarsi molto al robot (data la scarsa portata della connessione radio) l’allarme del dosimetro che misurava il livello di radiazioni che aveva assorbito cominciò a suonare.

Il suo supervisore gli disse che il dosimetro era difettoso e che continuasse a lavorare.
I robot americani con telecamera entrarono nel fabbricato della centrale
N°1 il 3 giugno (84 giorni dopo il terremoto).
Due diverse aziende, sotto contratto con la TEPCO (Tokyo Electric Power
Company, proprietaria della centrale) gestivano un robot ciascuna. A metà
maggio S.H. riferisce:

“Continuiamo l’addestramento. È disagevole manovrare i robot attraverso le porte doppie, sui pianerottoli e poi farli salire ai piani superiori mandandoli in retromarcia. Lo stress di noi operatori è notevole.”

“Il 19 maggio la Prefettura di Fukushima ordina di interrompere le operazioni. Il morale degli operatori è a zero. Ci occupiamo con qualche lavoro di manutenzione non urgenti e ci accorgiamo che i robot presentano già segni di usura, sebbene siano robusti modelli militari.”

“30 Maggio – stamattina ho trovato il bagno occupato da uno sconosciuto ubriaco che si era addormentato per terra.”

“31 maggio – Tre operatori hanno completato l’addestramento con i robot. Principalmente hanno imparato a farli andare su e giù per le scale. Se c’è bisogno di noi potremo andare a fare il nostro lavoro ovunque nel mondo.”

“1 Giugno – ho letto le dichiarazioni ufficiali del governo. Mi pare che sottovalutino la gravità della situazione.”

“3 Giugno – I robot sono entrati nel reattore N°1. Abbiamo usato telecamere e controllo radio. Il livello delle radiazioni è di 60 milliSievert/ora, ma ho trovato un punto caldo in cui raggiungeva 4 Sievert/ora.”

“I cingoli dei robot slittano sui pavimenti e incontrano difficoltà con gli ammassi di detriti.”

“15 Giugno – Usiamo Ethernet per le comunicazioni e abbiamo collegato un cavo per LAN (Local Area Network). Il robot ne ha steso 45 metri. Poi ci siamo fermati perché il cavo non ha un riavvolgitore automatico”

“16 Giugno – comincio a usare i robot grandi Warrior che possono sollevare anche 250 kg.”

“19 giugno – molti operatori dovevano avere un giorno di riposo o sottoporsi a test medici, ma un funzionario governativo ha deciso che non c’era tempo per queste cose e che dovevano avere un altro giorno di addestramento.”

“20 giugno – problemi con la stabilità dei robot Warrior: l’aderenza è diversa nel cingolo destro e in quello sinistro, occorre molta cura perché sulle scale non ruotino su se stessi”

“23 giugno – usiamo i PackBot in un’area ove è alto il livello delle radiazioni. Un primo robot trasmette i segnali via radio al secondo che è connesso con noi via Ethernet. Il cavo Ethernet è segnalato con coni bianchi e rossi, ma la direzione ha mandato un camion da 4 tonnellate che ha rimosso i coni ed è passato varie volte sul cavo che per fortuna non si è rotto – se si fosse rotto i due robot sarebbero rimasti inutilizzati nell’area ad alte radiazioni. “

Solo dopo il 23 Giugno arrivarono alcuni moderni robot giapponesi Quince. Erano modelli in cui i circuiti integrati erano vulnerabili alle radiazioni e
avevano dovuto essere schermati opportunamente. Nell’ottobre 2011 uno di
questi tranciò il proprio cavo e dovette essere abbandonato. I Quince, come i
Warrior, sono progettati per uso in caso di disastri, ma nessuno di questi è adatto a trasportare feriti o disabilitati.

“3 luglio 2011 – i Packbot hanno misurato le radiazioni al primo piano del reattore N°3 che era stato decontaminato ieri dai robot Warrior. I livelli di radiazione sono diminuiti del 10%. In alcuni punti il livello è di 80 Sv/h.”

Come si vede, la preparazione all’emergenza era inadeguata a Fukushima.
La Gestione Totale della Qualità (Total Quality Management) avrebbe dovuto imporre la presenza di apparati e strumenti adatti a funzionare in condizioni estreme (alte radiazioni) e di personale già addestrato.

Sul lungo termine, le strategie energetiche e i problemi di sicurezza non si
risolvono con discorsi (anche se “paiono assai fondati”), né su principi
ideologici, né su astratti principi di precauzione.

Dobbiamo analizzare i fatti, studiare, addestrare tecnici eccellenti, finanziare ricerca e scuole avanzate.

© Roberto Vacca, http://www.robertovacca.com, Tutti i diritti riservati.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

484224_234261176686773_258498387_n

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Energia nucleare: rischi, analisi, decisioni – di Roberto Vacca

Su gentile concessione dell’autore Roberto Vacca abbiamo il piacere di pubblicare integralmente l’articolo dal titolo Energia nucleare: rischi, analisi, decisioni del 18/6/2012.

Roberto Vacca

Ing. Roberto Vacca, famoso scrittore, divulgatore scientifico, saggista e matematico

“TEKENO ALTAI”
“No alla riaccensione”

Cantavano in coro i dimostranti nella Prefettura di Fukui nel Giappone occidentale non lontano da Kyoto. Li abbiamo visti nei telegiornali di oggi. Protestavano contro la decisione annunciata dal Primo Ministro Noda di rimettere in funzione a Ohi due grandi centrali elettronucleari della potenza complessiva di 2350 MegaWatt.

Non ci sono piani per far ripartire le altre 48 centrali nucleari giapponesi spente dopo il disastro di Fukushima. La situazione energetica del Giappone è critica. Si attendono severe limitazioni all’uso dell’aria condizionata – così essenziale per assicurare benessere e produttività dei giapponesi. Curiosamente anticipò che il Giappone sarebbe diventato una potenza dominatrice, se avesse avuto l’aria condizionata S.F. Markham. Era un meteorologo e parlamentare inglese. Nel suo libro del 1942 (“Climate and the Energy of Nations”) sosteneva che hanno dominato vaste aree del mondo proprio i Paesi fioriti fra le isoterme tra 16°C e 24°C oppure capaci di regolare il clima del loro habitat.

Per quanto tengano all’aria condizionata, molti giapponesi sono restii a sfruttare l’energia nucleare per assicurarsela. Ci sono 11 città nel raggio di 30 kilometri dalle centrali di Ohi. I sindaci di 8 di queste si sono opposti alla riaccensione. Anche questa zona è sismica: una faglia importante è molto vicina a Ohi. Il sindaco di Maizuzu, Ryoto Tatami, ha detto: “Gli standard di sicurezza attuali non sono stati ancora definiti in base alle analisi del disastri di Fukushima.” Toyojo Terao, sindaco di Kyotamba, ha accusato il governo di non aver nemmeno analizzato a fondo la situazione dell’offerta e della domanda di energia del Paese.

Parti significative dell’ingegneria della sicurezza e dell’analisi dei rischi tecnologici sono state elaborate proprio dagli ingegneri nucleari. È paradossale che incidenti gravi di centrali nucleari siano avvenuti a causa di trasgressioni evitabili solo in base al senso comune. Chernobyl fu causato da sprovveduti ingegneri elettrotecnici che in assenza di veri esperti tentarono un esperimento temerario e assurdo. Fukushima è avvenuto perchè la centrale era sorta in zona sismica, soggetta notoriamente a tsunami di decine di metri ed era stata protetta da un muro di soli 8 metri.

Come dice un’antica massima: “Si perse un chiodo e il cavallo perse un ferro. Si perse il cavallo e non arrivò mai il messaggero, così si perse la battaglia e si perse la guerra e si perse l’impero.”

I progettisti e i tecnici più esperti devono eccellere nell’alta tecnologia, ma devono anche possedere immaginazione vivace e infinito buon senso. Devono anche essere aiutati da collaboratori, aiutanti e decisori di grande classe.

Queste doti sono essenziali anche per l’analisi d guasti e disastri. Dopo il fallimento di un’impresa, la malfunzione estrema di un sistema tecnologico, di una macchina importante o di un’organizzazione, vengono ingaggiati esperti per capire cause, concause, errori, incompetenze – e per suggerire come evitare eventi negativi simili in avvenire. Questa attività si chiama “autopsia” (in inglese o latino britannico: post-portem o PM).

Dopo l’incidente della centrale nucleare di Three Mile Island (28/3/1979) una commissione dell’Institute of Electrical and Electronics Engineers (IEEE) fece l’autopsia degli eventi – seguiti minuto per minuto – e pubblicò i risultati sul mensile SPECTRUM nel Novembre 1979 (8 mesi dopo). È una lettura istruttiva: evidenzia errori umani e deficienze di hardware.

Molto istruttiva anche l’analisi, pubblicata sullo stesso numero di SPECTRUM, delle caratteristiche, della posizione e del livello di sicurezza delle 72 centrali nucleari all’epoca in funzione in USA. I giudizi erano fattuali e severi. Riguardavano: management, competenza del personal tecnico, sismicità, livello e tempestività della manutenzione. Il giudizio in un caso critico diceva:

“La sicurezza è scarsa a causa dell’atteggiamento marginale del management e dei controlli inadeguati che esso esercita.. Il management non riesce a eliminare errori e incuria dei tecnici. La selezione del personale è criticabile e i rapporti sindacali sono cattivi. I problemi del management sono aggravati dalle dimensioni enormi dell’azienda. La sicurezza è degradata per scarso rispetto delle specifiche tecniche e delle procedure amministrative e relative alle emergenze.”

Questi giudizi recisi ebbero l’effetto di migliorare notevolmente la situazione. È comprensibile che sterzate positive nella realizzazione e nella conduzione di grandi strutture tecnologiche vengano operate dopo un disastro che faccia molto rumore. Nel caso delle centrali nucleari i rischio sono alti – ma lo sono anche in altri campi e settori. (Nel mondo 1.200.000 persone muoiono ogni anno in incidenti di traffico). Bisogna ricorrere alla Gestione Globale della Qualità: una disciplina onerosa da praticare. Molti non ne conoscono nemmeno l’esistenza. Anche ove sia perseguita seriamente, non riesce ad azzerare ogni rischio. Il mondo è complicato. In certa misura è migliorabile, ma bisogna studiare e impegnarsi per migliorarlo.

© Roberto Vacca, http://www.robertovacca.com, Tutti i diritti riservati.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente