Archivi tag: ambiente

Noi siamo ciò che mangiamo

L’era geologica in cui viviamo è denominata Età del Silicio, anche se la novità piu’ grande che distingue la nostra civiltà da quella dell’Età del Ferro è probabilmente la plastica e non il silicio. Questo perchè mentre il silicio è un elemento chimico presente in natura, le materie plastiche invece sono state interamente sintetizzare dall’uomo attraverso un processo evolutivo che è iniziato nel 1855 con la sintesi del rayon.

L’invenzione della plastica ha indubbiamente rivoluzionato positivamente le abitudini dell’Umanità, introducendo però anche alcune problematiche per la salute.

Ad esempio il Bisfenolo A, conosciuto anche come BPA, è un composto utilizato per sintetizzare alcune materie plastiche, come ad esempio il poliestere, il pvc, le resine epossidiche ed il policarbonato, e sembrerebbe essere coinvolto in numerose patologie della sfera sessuale di bambini ed adulti.

Il policarbonato, di cui il BPA è un componente chiave, è utilizzato per la produzione di tantissimi prodotti, tra i quali giocattoli per bambini, bottiglie, dispositivi medicali, lattine alimentari e tutti quei prodotti plastici in cui sono richieste qualità come trasparenza, durezza e resistenza.

Sono stati pubblicati più di cento studi sulle interazioni del BPA con il sistema endocrino ed alcuni, a partire dal 2008, avrebbero dimostrato la sua tossicità, gli effetti cancerogeni e neurotossici, incluso l’aumento del rischio di obesità. Alcune aziende hanno già eliminato il BPA dai biberon e dai giocattoli per bambini, tuttavia il monomero è largamente impiegato su scala industriale, tanto che è presente praticamente ovunque, anche negli shampoo.

Diversi studi avrebbero evidenziato che esponendo gatti e topi anche a bassi dosaggi di bpa si sarebbero riscontrati effetti come:

  • cambiamenti permanenti nei genitali;
  • cambiamenti nel tessuto mammario che predispongono le cellule all’azione degli ormoni e sostanze cancerogene;
  • effetti avversi sulla riproduzione e cancerogeni a lungo termine;
  • incremento del peso della prostata del 30%;
  • perdita di peso, riduzione dell a distanza ano-genitale in entrambi i sessi, segni di pubertà precoce;
  • diminuzione del testosterone nei testicoli;
  • cellule del seno predisposte al cancro;
  • cellule della prostata più sensibili agli ormoni e cancro;
  • diminuzione dei comportamenti materni;
  • inversione delle normali differenze sessuali nella struttura del cervello e comportamento (tendenza all’omosessualità);
  • disturbi nello sviluppo ovarico;
  • effetti avversi neurologici.

La cosa che dovrebbe farci riflettere è che il Bisfenolo A è in grado di attraversare il rivestimento in plastica di prodotti alimentari in scatola, specialmente se trattati con alte temperature o con sostanze acide (come l’acido citrico delle bevande gassate), è contaminare i cibi.

Secondo delle ricerche il 93% della popolazione mondiale avrebbe tracce di BPA nelle urine. Inoltre bere da bottiglie di policarbonato aumenterebbe del 66% i livelli di BPA nelle urine.

Le associazioni di consumatori raccomandano alle persone che vogliono ridurre l’esposizione al BPA di evitare gli alimenti in scatole di plastica o policarbonato. Invece il National Toxicology Panel raccomanda anche di evitare di mettere contenitori di plastica nei forni a microonde o di lavarli nelle lavastoviglie o utilizzando detergenti aggressivi.

Aveva ragione il filosofo hegeliano Feuerbach quando affermava che l’uomo è ciò che mangia.

Facciamo attenzione a cosa compriamo, a cosa mangiamo e ricordiamo sempre che quando gettiamo via rifiuti di plastica nell’ambiente in qualche modo tornano sul nostro piatto.

Ci torneranno prima o poi, anche se prima di farlo finiscono magari sull’isola di plastica nel Pacifico (leggi articolo di approfondimento dal titolo “Un’isola tra le onde”) e poi nello stomaco di qualche sventurato tonno (leggi articolo di approfondimento dal titolo “Tonno, olio e cesio radioattivo. Cosa c’`e di vero”) ripescato ed inscatolato.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Autore: Giovanni Gasparri (Linkedin | Facebook)
Data di Pubblicazione  1 Settembre 2014
Ultima Revisione: 1 Settembre 2014

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Antichi Saperi: l’olio di semi di faggio

Leggendo un vecchio libro ho trovato un riferimento all’olio di semi di faggio che ha suscitato il mio interesse. Non avendone mai sentito parlare ho iniziato ad approfondire l’argomento, immaginando da subito che si trattasse di un’antica pratica oramai in disuso. Così mi sono imbattuto in una interessante descrizione delle caratteristiche organolettiche e del metodo di produzione che vorrei condividere con voi, nell’ottica della riscoperta degli “antichi saperi”.
Riporto qualche paragrafo (notare il caratteristico linguaggio scientifico ottocentesco) tratto dall’Enciclopedia di Chimica Scientifica ed Industriale – Volume Sesto edita nel 1873 e disponibile gratuitamente online per la consultazione all’indirizzo: http://goo.gl/6RcBvc.

“I semi di faggio contengono un olio fluido di sapore dolce il quale può essere spremuto e utilizzato nell’economia domestica come commestibile e come combustibile. Nella fine del secolo scorso (1700) in Francia fecero esperienze accurate sulla quantità e la qualità dell’olio di faggio e da un calcolo dell’agronomo Baudin, fu desunto che raccogliendo i semi dal bosco di Compiègne (quale era in allora) si avrebbe potuto ottenere tanto olio da bastare molti anni agli abitanti del luogo.” […]

faggio_frutto

“I semi del faggio forniscono il 17 per 100 di olio il quale quando fu ben preparato ha colore abraceo senza odore e di sapore molto dolce, se dalle mandorle fu separata la corteccia e la pellicola. Non è troppo fluido. Raffreddandolo si solidifica a -17° ed ha la densità di 0,922 a 15°. Può supplire all’olio di olive e possiede la preziosa proprietà di conservarsi non rancido più a lungo che gli altri olii, anzi si afferma che migliori nell’ invecchiare e che dopo cinque anni sia di gusto più delicato e che si mantenga non guasto per dieci e fino per venti anni. ” […]

“Berthollet, l’Héritier e Tissot furono incaricati dal Governo (Francese) di quel tempo di compilare due istruzioni relative alla raccolta dei semi di faggio ed all’estrazione dell’olio donde si possono ritrarre buoni insegnamenti anche al presente. L’Italia non è scarsa ne suoi alti monti di faggi di alto fusto e però potrebbe volgere la propria attenzione sopra un industria che tornerebbe vantaggiosa per più titoli ed in ispecie al presente in cui gli olii commestibili e per saponi raggiunsero un prezzo elevato quantunque non s’adoprino più di frequente nelle lampade e lucerne, avendovi surrogato il petrolio. Noi daremo un riassunto di quanto fu indicato come conveniente su tale argomento. Verso la fine di settembre si farà la raccolta dei semi i quali poi dovranno essere stesi in istrato sottile in luogo secco ben aerato e guardato dal sole. Per agevolare la disseccazione fu trovato opportuno indirizzare una corrente d’aria calda nel detto luogo, credendosi anzi che ciò facendo la quantità di olio risulti maggiore. I semi già secchi devono essere vagliati per separarne i vuoti ed i tarlati; si può anche farne la cernita a mano, ma vi occorre troppo tempo; si può gittarli nell’aria come si fa pel frumento.” […]

I semi del faggio hanno il loro mandorlo chiuso in un guscio cui succede immediatamente una pellicella che dà cattivo sapore all’olio. Nel modo più rozzo di operare si spremono i semi senza toglierne il guscio e con ciò si perde 1/7 dell’olio che si ricaverebbe dalle mandorle sbucciate, come fu verificato per mezzo dell’esperienza. Per isbucciarli si fanno passare fra due macine somiglianti a quelle dei molini comuni ma talmente discostate che non facciano altro che frangere i gusci. Rimane la pellicola che si può togliere scuotendo le mandorle scortecciate entro un sacco e poi vagliandole.  Quando si abbiano i semi preparati nel modo disegnato si dovranno ridurre in pasta con uno dei mezzi seguenti:

  1. Si portano al molino a pila e si pilano a colpi moderati avendo cura di aggiungervi dell’acqua di tempo in tempo, per trasfondere coesione alla pasta, che poi si sottopone al torchio come si fa per gli altri semi oleiferi. Basta 1 parte d’acqua per 15 parti di semi da pestare e il pestamento dura un quarto d’ora incirca. Si conosce che è a termine allorchè spremendo un po di pasta tra le dita l’olio ne schizza fuori
  2. Si possono anche sottomettere allo schiacciamento delle macine verticali di pietra dura come si usano per altri casi.
  3. Ma il metodo migliore è quello della macinatura. Scortecciati i semi, dapprima si riducono in farina grossolana che indi si sminuzza di più in un molino da cereali. Usando qualche cautela cioè che la macina non giri troppo veloce e l’aria possa rinfrescarla non si ha da temere l’inconveniente che s’ingrassi.
  4. Ridotti in farina sottile se ne fa pasta con acqua che si spreme sotto il torchio come per gli altri semi oleiferi valendosi dei torchi o pressoi usati per l’olio d’olivo e pei semi oleiferi. Allorché non ne geme più olio si riporigono le focacce sotto macine verticali si inaffiano con acqua tiepida che agevola l’uscita dell’olio gonfiando le mucilagine si rimette al pressoio la seconda pasta e se ne ricava un olio di seconda qualità. Talvolta si prendono le seconde focaccie si rimettono sotto le mole verticali si bagnano con acqua bollente e si riesce ad una terza proporzione di olio che riesce di qualità inferiore.
Giovanni Gasparri
Monte San Giovanni Campano, 26Agosto 2014
 

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Autore: Giovanni Gasparri (Linkedin | Facebook)
Data di Pubblicazione  26 Agosto 2014
Ultima Revisione: 26 Agosto 2014

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Ingegneria genetica e OGM. Rischi e Opportunità

DISCLAIMER

Attenzione!
L’articolo che segue non è un articolo a carattere scientifico o divulgativo. È stato pubblicato senza il parere di scienziati autorevoli del settore e neanche da professionisti iscritti all’albo dei giornalisti. Pertanto non può essere considerato come un riferimento scientifico, considerato attendibile o essere preso come riferimento per altri scopi. Le fonti utilizzate e citate, come Wikipedia, potrebbero non essere attendibili.
Il testo si basa prevalentemente sulla sintesi del controverso documentario dal titolo the Seeds of Death prodotto da Gary Null e va inteso unicamente come una raccolta di spunti di riflessione da cui si possono iniziare approfondimenti personali per valutarne la veridicità o meno, da effettuarsi per mezzo di fonti attendibili. Le eventuali informazioni a carattere sanitario e scientifico o inerenti la salute sono fornite a puro titolo informativo, e non vanno considerate in nessun caso sostitutive del parere o dell’opinione del medico e delle figure professionali del settore. L’articolo non rappresenta necessariamente l’opinione degli autori, di Legambiente, del sito ed i collaboratori che non potranno essere considerati responsabili per danni di qualsiasi natura a terzi o per qualsiasi azione od omissione posta in essere a seguito dell’uso delle informazioni contenute nell’articolo.
Il LETTORE è consapevole ed accetta incondizionatamente che tutte le informazioni qui riportate possono essere soggette ad eventuali errori, imprecisioni, omissioni o altri difetti e che le stesse vengono fornite senza alcuna garanzia, espressa o implicita, relativa a titolo esemplificativo ma non limitativo, all’accuratezza, completezza, affidabilità o veridicità. 
Il LETTORE solleva da ogni responsabilità gli AUTORI, i loro COLLABORATORI ed il SITO, per qualsiasi danno conseguente, incidentale, indiretto o speciale (senza limitazioni), indipendentemente dalle basi del reclamo e anche se gli AUTORI, i COLLABORATORI o il SITO fossero stati avvisati delle possibilità di tali danni. 


Cell_Culture_in_a_tiny_Petri_dish
L’ingegneria genetica è quella nuova scienza che si occupa di estrapolare in maniera selettiva geni dal DNA di microrganismi, piante e animali e di iniettarlo forzatamente all’interno del DNA di specie diverse.
Lo scopo degli scienziati è quello di comprendere il funzionamento della vita stessa, per poter individuare nuovi strumenti capaci di curare malattie o aumentare il benessere dell’Uomo. Tutti propositi indubbiamente lodevoli.
Con queste techiche gli scienziati riescono a manipolare le caratteristiche fisiologiche di esseri viventi e piante, facendo un copia e incolla di pezzi di DNA da varie specie, così da creare nuove forme di vita con delle caratteristiche inesistenti in natura, interamente progettate ed ingegnerizzate in laboratorio.
Si lavora ad esempio per rendere i maiali transgenici adatti per fare da donatori di organi all’uomo in caso di bisogno, senza dover ricorrere all’espianto da cadaveri e risolvendo le enormi difficoltà tecniche legate alla compatibilità, alle tempistiche ed alle liste di attesa.
L’ingegneria genetica è dunque una scienza si controversa ma indubbiamente affascinante e capace di aprire al mondo nuove prospettive. Per questo il suo studio andrebbe assolutamente incoraggiato e non ostacolato.Con queste tecniche l’Uomo interviene attivamente nella creazione di nuove forme di vita, prendendo impropriamente il posto di Dio nei processi di creazione ed evoluzione delle specie.Tuttavia, come già successo storicamente con la scoperta della radioattività (leggi l’articolo di approfondimento “Fidarsi della scienza, non fidarsi dell’industria”), alla fase scientifica ha fatto immediatamente seguito la fase industriale che vive di guadagni proprio grazie all’entusiasmo del mercato suscitato dalle nuove tecnologie.
Così anche per gli OGM le aziende hanno fiutato subito le opportunità di guadagno e si sono immediatamente lanciate nella distribuzione al pubblico di prodotti transgenici (es. pesci fluorescenti, semi per l’agricoltura, mangimi per animali) e prodotti derivati da OGM (es. latte).
Le più importanti aziende che a livello mondiale generano profitti dalla commercializzazione di prodotti transgenici o dallo sfruttamento dei brevetti sulle manipolazioni genetiche (altra materia controversa) sarebbero prevalentemente: Bayer, Monsanto, Basf e Dupont.
Bayer produce ad esempio il Riso OGM LL62, modificato per resistere al glufosinato, un erbicida altamente tossico prodotto dalla stessa Bayer e molto venduto in tutto il mondo con un giro di affari stimato in 241 milioni di Euro solo nel 2007.
Lo scopo di questo riso è quello di consentire ai coltivatori di aumentare l’utilizzo degli erbicidi così da distruggere praticamente tutto eccetto il riso.
Monsanto produce ad esempio il Mais MON 810, geneticamente modificato in modo da generare una proteina (Delta-Endotossina) che danneggia gli insetti (lepidotteri) che cercano di nutrirsene. L’uso sarebbe stato approvato dall’Unione Europea dal 1998. Il 90% del volume totale europeo sarebbe coltivato in Spagna. In Italia l’utilizzo di questo Mais sarebbe stato dichiarato illegale solamente pochi mesi fa, ovvero il 12 Luglio 2013, ma il decreto è stato impugnato dall’Agenzia Europea per la sicurezza alimentare (EFSA) che ne ha dichiarato l’infondatezza. In Italia pertanto vige uno stato di incertezza che, secondo quanto riportato da Greenpeace Italia sul proprio sito, sarebbe causa di possibili contaminazioni in Friuli Venezia Giulia.
Non si sa ancora quale sarà l’esito della contestazione dell’EFSA, ma sappiamo che alcuni paesi, come la Grecia, sono stati sanzionati dall’Unione Europea (delibera 2006/10/CE del 10 gennaio 2006) poichè “[…] la Grecia non è autorizzata a vietare la commercializzazione delle sementi di mais ibridi derivati all’organismo geneticamente modificato MON 810 […]“.
Basf produrrebbe la patata AMFLORA, modificata geneticamente per renderla adatta per produrre carta e per altri scopi tecnici ed industrali.
In Italia non si pottrebbero coltivare piantagioni OGM, ma i prodotti di consumo conteneti OGM possono essere liberamente venduti  (con l’obbligo di informare i consumatori). In qualche modo i consumatori sarebbeto tutelati, insomma, anche se non sembrerebbe facile tracciare ed informare i consumatori sui prodotti che derivano da animali che si alimentano con mangimi OGM, come ad esempio la carne o il latte.
Per dare un’idea della dimensione del fenomeno dell’agricolura transgenica, nel 2006 (8 anni fa) la superficie totale di campi coltivati con piante transgeniche era di 102 milioni di ettari (ovvero l’equivalente di 239 milioni di campi di calcio) con un incremento del 135% rispetto all’anno precedente.
Nel 2010 è stato stimato che il 10% dell’intera superficie coltivata del mondo sarebbe  stata seminata con prodotti geneticamente modificati. I paesi più interessati sono Stati Uniti, Canada, India, Sud America, Cina.
Le considerazioni da fare, specie sull’agricoltura OGM, sono molte e tutte controverse.
Non sono ancora stati pubblicati studi approfonditi sull’impatto a lungo termine degli OGM sull’uomo,  sull’ambiente e sugli animali. Probabilmente occorreranno anni per farlo. Nel frattempo le aziende brevettano e speculano sulla mancanza di dati scientifici.
Il problema è che per l’agricoltura transgenica il processo sembrerebbe oramai irreversibile ed incontrollabile. Infatti il vento, il polline, gli insetti ed altri fattori farebbero si che questi prodotti geneticamente manipolati vadano a contaminare coltivazioni autoctone e biologiche,  che riproducendosi minano la biodiversità in maniera irreversibile.
Inoltre c’è da considerare che, secondo alcuni studiosi (tra cui Michael Antoniou, PhD genetista presso il King College London School of Medicine) uccidendo gli insetti e non consentendo loro di nutrirsi, si scatena una reazione a catena negativa sull’intero ecosistema naturale che colpisce in maniera particolare i predatori che si cibano di insetti e gli altri predatori della catena alientare.
Sempre secondo Antoniou queste multinazionali promuoverebbero commercialmente i loro prodotti come sicuri da mangiare ed in grado di apportare benefici all’ambiente, aumentare la produzione del raccolto, ridurre l’uso di pesticidi e capaci di risolvere il problema della fame nel mondo.
Secondo altri l’industria genetica produce GMO per la distribuzione su scala mondiale accelerando semplicemente quel processo di selezione naturale Darwiniana che avviene da sempre in natura. Queste aziende avrebbero semplicemente migliorato ed accelerato quegli incroci di specie che gli agricoltori e gli allevatori da millenni effettuano proprio per esaltare alcune caratteristiche genetiche delle specie (colore, forma, resistenza, sapore, etc), scambiandosi semi e facendo accoppiare in maniera selettiva gli animali.
Non avendo a disposizione sufficienti elementi per valutare queste affermazioni, soffermiamoci a capire chi sono queste aziende, quali sono i loro interessi e la loro storia.
Innanzitutto mettiamo in evidenza che le aziende che lavorano sugli OGM (ovvero le aziende biotecnologiche) sono tutte aziente chimiche e farmaceutiche e si sa che l’industria farmaceutica genera profitti quando la popolazione è malata. Quando affermano pertanto che i prodotti da loro commercializzati sono sicuri, ovvero non provocano danni alla salute umana, bisognerebbe sempre considerare il loro evidente conflitto di interessi e pertanto le loro dichiarazioni andrebbero prese con estrema cautela e diffidenza.
Guardando alla storia, secondo quanto riportato da Wikipedia, Bayer Basf sarebbero le stesse aziende che durante il periodo Nazista (dal 1941 al 1944) guadagnavano soldi producendo, come membri del consorzio I.G. FARBEN, il gas killer denominato ZYKLON B che Hitler utilizzò per sterminare più di cinque milioni di Ebrei nei campi di concentramento come Auschwitz.
Sempre stando a quanto riportato da Wikipedia, Monsanto sarebbe la stessa azienda che produceva il DDT nel 1940, sostanza definita come inquinante organico persistente ed altamente resistente nonchè etichettata come possibile cancerogeno. Il suo utilizzo è stato vietato a partire dal 1972 (negli Stati Uniti) e dal 1978 (in Italia).
La stessa Monsanto avrebbe prodotto tra il 1961 e il 1971, un altro ritrovato miracoloso che avrebbe risolto i problemi Americani nel Vietnam, il famigerato Agente Arancio. Si trattava di un defoliante utilizzato nel Vietnam dagli Americani che veniva irrorato dagli aerei per far cadere le foglie degli alberi così da far uscire allo scoperto i Viet Cong. La sostanza chimica avrebbe  provocato e provocherebbe tuttora gravi malformazioni e tumori alle popolazioni locali.
Monsanto sarebbe ancora al centro dell’attenzione anche per altri prodotti controversi come l’ormone per la crescita bovina ed i PCB (policlorobifenili). Per questi ultimi, in commercio dal 1929, solo dopo quasi 84 anni di utilizzo massiccio, l’Agenzia Internazionale per la Ricerca sul Cancro (IARC) avrebbe accertato nel 2013 una correlazione tra esposizione ai PCB e cancro.
Secondo quanto riportato da Rima Laibow – Medical Director della Natural Solutions Foundation,  Monsanto e Dupont starebbero lavorando in maniera congiunta per commercializzare il gene Epicyte, che immesso all’intero del cibo OGM indurrebbe l’organismo umano a creare autoanticorpi contro lo sperma, con la conseguenza di rendere irreversibilmente sterili uomini e donne.
Secondo alcuni, se questa tecnologia dovesse andare nelle mani di malintenzionati, potrebbe magari un giorno essere somministrata all’interno di cibo OGM e distribuita in grande scala per scopi terroristici, bellici o per effettuare pulizie etniche.
Considerato che, dal punto di vista imprenditorale, non avrebbe alcun senso per le aziende investire soldi nella ricerca di questa categoria di OGM senza possibilità alcuna di un futuro ritorno economico, è probabileche ci sia già un mercato per il gene Epicyte, ovvero dei potenziali acquirenti.
Con gli OGM stiamo assistendo ad un fenomeno davvero inquietante:
 
anziché cambiare l’industria per adattarla alle esigenze della natura, l’Uomo sta cambiando la natura per adattarla alle esigenze dell’industria.
La cosa interessante da notare e che quasi tutte le applicazioni degli OGM nell’agricoltura vanno a vantaggio economico dei produttori e mai del consumatore finale (no prezzi più bassi o migliori sapori ad esempio).
“I rischi a cui si espone l’agricoltura oggi mi sono troppo elevati e non vale la pena rischiare, bisogna seguire il principio di precauzione” (Michael Antoniou, PhD)
Quello che possiamo fare è sostenere la battaglia contro la contaminazione da OGM che produce inquinamento genetico incontrollato.
Per farlo bisogna spingere i comuni Italiani a far applicare la “clausola di salvaguardia” prevista dalla normativa Europea e già adottata da molti altri paesi.
Si tratta di dichiarare il comune “antitransgenico”, ovvero:
  • impedire, sulla base del principio di precauzione e sulle valutazioni degli aspetti socio-economici del territorio, che vengano coltivati, allevati, sperimentati in campo aperto, trasportati e commercializzati organismi geneticamente manipolati;
  • controllare la qualità degli alimenti agricoli e di allevamento prodotti sul territorio;
  • invitare le aziende fornitrici di pasti e derrate nelle mense pubbliche e scolastiche a dichiarare formalmente il non utilizzo di alimenti contenenti OGM;
  • pubblicizzare la delibera tramite l’apposizione della denominazione “COMUNE ANTITRANSGENICO” nei cartelli di ingresso e di saluto del Comune e sul sito internet ufficiale.

 

Nella provincia di Frosinone sono stati già dichiarati COMUNI ANTITRANSGENICI i comuni di:

  • AQUINO;
  • SAN DONATO VAL DI COMINO;
  • SAN GIOVANNI INCARICO.
Dobbiamo spingere le amministrazioni locali del bacino dell’Amasena a prendere provvedimenti quanto prima e poi estendere questa forma di tutela ai territori limitrofi fino a comprire l’intero territorio nazionale.
Inoltre la Legge Regionale del Lazio del 01 Marzo 2000 numero 15, prevede la Tutela delle risorse genetiche autoctone di interesse agrario. Bisogna individuare le nostre risorse, proteggerle e svilupparle, anche commercialmente.
Non dimentichiamo che noi siamo ciò che mangiamo.
Per approfodire è consigliata la visione del filmato seguente, da cui sono state tratte la maggiorparte delle informazioni tradotte e sintetizzate in  questo articolo.
Giovanni Gasparri
Toronto, 30 Marzo 2014

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Autore: Giovanni Gasparri (Linkedin | Facebook)
Data di Pubblicazione  30 Marzo 2014
Ultima Revisione: 30 Marzo 2014

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Fidarsi della scienza, non fidarsi dell’industria

Ad ogni grande scoperta dell’uomo, ha fatto sempre seguito una rapida ondata di produzione industriale e di ottimismo commerciale.
Questa corsa contro il tempo, volta a conquistare il mercato con prodotti sempre nuovi, ha spesso creato conseguenze disastrose.
Gli scienziati non hanno neanche il tempo di validare gli effetti a lungo termine delle scoperte sulla salute o sull’ambiente, che nel frattempo le aziende iniziano già a lucrare con la distribuzione al pubblico.
Quando Marie Curie scoprì la radioattività, ad esempio, l’industria entrò subito in fermento, portando nelle case della gente degli oggetti pericolosissimi.
Non si conoscevano ancora i rischi della radioattività sull’uomo, ma il mercato sembrava comunque entusiasta: c’erano nuove idee da vendere a tutti i costi.
 toothpaste__7999
La fabbrica Auergesellschaft di Berlino iniziò a commercializzare, ad esempio, nel 1920 un dentifricio radiattivo al Torio, chiamato Doramad, e pubblicizzato come miracoloso per l’incredibile effetto antibatterico e sbiancante sui denti.
Il dottore farmacista Alexis Moussalli, Parigino ma di origini Egiziane, brevettò tra il 1927 ed il 1934 ben 101 preparati a base di Radio, Torio ed altre sostanze radioattive. La creazione che ebbe più successo a livello commerciale fu THO-RADIA, disponibile come

tho-radiacrema o polvere,  venduta come prodotto di bellezza e curativo a donne di tutte le età – metodo scientifico.

L’inventore William J. A. Bailey, con una falsa laurea ad Harvard, dichiarò nel 1918 che secondo dei suoi studi l’acqua potabile arricchita con il radio potesse stimolare il sistema endocrino e curare patologie come il diabete, l’impotenza, l’anemia, l’asma e diverse altre patologie ancora. Si arricchì mettendo in commercio la bevanda Radithor, fabbricata nel New Jersey. Aveva investito nell’idea il ricco industriale americano Eben Byers che, per ironia della sorte, morì nel 1932 proprio a causa dell’ingestione prolungata di Radithor.
Il fondo probabilmente lo toccò la Home Products Company di Denver, in Colorado,  che nel 1930 pubblicizzò un surrogato dell’attuale Viagra. La supposta radioattiva che avrebbe garantito prestazioni sessuali “scintillanti”.
6a00d83542d51e69e20133f45ee1d2970b-500wi
Ci si accorse troppo tardi delle conseguenze della radiattività sull’uomo. Pian piano tutti gli scienziati che avevano attivamente lavorato in quell’ambito di ricerca iniziarono a morire precocemente. Prima Charles Madison Dally, nel 1904, poi Elizabeth Ascheim l’anno seguente,  Marie Curie nel 1934, Louis Slotin nel 1946 e tanti altri ancora.
Il loro sacrificio non è servito a molto per cambiare le intenzioni dell’industria.
tapedispenser
Tra agli anni ’70 e gli anni ’80, infatti, l’azienda 3M, tuttora leader mondiale nel suo settore, produsse un dispenser di nastro adesivo radiattivo. Era il modello C-15 Decor Scotch e conteneva Torio. La sostanza radioattiva era stipata nella pesante base che rendeva il dispenser stabile sulle scrivanie.
Con modalità analoghe a queste  appena elencate,  la radioatività era entrata ormai dentro la maggior parte degli oggetti e si era diffusa in maniera incontrollabile:
  • Uranio – nella ceramica utilizzata per dentiere, pentole, gioielli, mattonelle da bagno e nel vetro e marmo;
  • Uranio impoverito –  nei dadi da gioco per bambini e proiettili;
  • Torio – in lanterne incandescenti, utensili ed oggetti di ferramenta in lega magnesio-torio,  bacchette per le saldatrici, obiettivi fotografici, sale alimentare povero di sodio, noci brasiliane, gomme da masticare, cioccolate;
  • altri isotopi radioattivi – nelle penne per scrivere, candele per motori delle macchine, farmaci antidiarroici, rilevatori di fumo, valvole elettriche, gioielli, palline da golf, fertilizzanti per terreni, sale e carta lucida delle riviste a colori.
colazione_8014
E’ scientificamente provato che la radioattività crea danni al nucleo delle cellule ed al DNA, anche irreversibili.
In caso di danni irreversibili al DNA, la cellula darebbe vita a una progenie di cellule geneticamente modificate che potranno dar luogo a tumori o leucemie.
Tutti questi oggetti, che in maniera subdola hanno minato per decenni il nostro DNA e la nostra salute, adesso sono finiti nelle discariche di tutto il mondo e resteranno li ad inquinare ancora per molto.
Il Radio dimezza la propria intensità di irradiazione (emivita) in un periodo di 1602 anni, il Torio invece è quasi perenne. La sua emivita, infatti, è tre volte l’età attuale della terra.
Con la radioattività, l’entusiasmo e la logica del guadagno aveva prevalso.
Facciamo in modo che la ricerca scientifica non si fermi, ma che l’industria non ci lucri sopra prima che gli scienziati abbiano avuto il tempo di verificare gli effetti delle scoperte.
Sta succedendo di nuovo con gli OGM. Fermiamoli prima che sia troppo tardi.
Giovanni Gasparri
Toronto, 19 Marzo 2014

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Autore: Giovanni Gasparri (Linkedin | Facebook)
Data di Pubblicazione  19 Marzo 2014
Ultima Revisione: 19 Marzo 2014

PER APPROFONDIRE

LICENZA

© Questo articolo, denominato “Fidarsi della scienza, non fidarsi dell’industria” di Giovanni Gasparri  è fornito integralmente sotto licenza internazionale Creative Commons Attribution-ShareAlike 4.0.

Per consultare una copia della licenza d’uso visita il link http://creativecommons.org/licenses/by-sa/4.0/deed.it.

Tu hai il diritto di leggere, copiare, stampare, salvare, modificare, migliorare, distribuire, vendere, fotocopiare o correggere il presente lavoro. Le uniche restrizioni sono che se lo distribuisci, devi citare l’autore ed il titolo del documento, e se prendi spunto da questo lavoro per creare un’opera derivata devi allo stesso modo citarli. Con questa licenza ti diamo praticamente ogni libertà di utilizzare le informazioni, ad eccezione di togliere quella libertà ad altri.

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Giornate FAI 2014 in Ciociaria

Sabato e Domenica 22 e 23 Marzo 2014 avremo la possibilità di ammirare 750 tesori d’Italia che generalmente non sono accessibili al pubblico. Si tratta della ventiduesima edizione delle Giornate FAI di primavera, organizzate dal Fondo Ambiente Italiano per diffondere la culura del Patrimonio Italiano e la sensibilità a conservarlo.

Per questo motivo gli ingressi sono gratuiti anche se sono graditi liberi contributi per l’accesso a queste risorse.

La provincia di Frosinone offre tre tappe molto interessanti ad ARPINO, SANT’ELIA FIUME RAPIDO e CASSINO.

Tutte e tre le tappe della Ciociaria sono inserite nell’itinerario nazionale dei luoghi Augustei, ovvero dei luoghi correlati alla vita e alle opere dell’imperatore Augusto. Scopriamo perchè…

ARPINO

Arpino, oltre ad essere la patria di Cicerone, ha dato i natali anche a Marco Vipsanio Agrippa, influente personalità della Roma antica e genero dell’Imperatore Ottaviano.

L’imperatore Augusto nacque sotto il consolato dell’arpinate Marco Tullio Cicerone e Caio Antonio.
In quasi 40 anni di regno, Augusto portò grandi modifiche che lasciarono segni nei secoli e si servì di Marco Vipsanio Agrippa come bravissimo architetto per abbellire Roma di edifici e monumenti (come ad esempio il Pantheon).

Le visite guidate saranno disponibili dalle 10:00 alle 13:00 e dalle 15:00 alle 18:00 di entrambi i giorni e l’organizzazione sarà a cura degli Apprendisti Ciceroni. Le visite prevedono anche una tappa alla Civitavecchia di Arpino, con le sue Mura Ciclopiche ed il celeberrimo Arco a Sesto Acuto.

SANT’ELIA FIUME RAPIDO

Nel territorio di S. Elia sorgeva l’acquedotto romano di Casinum e seguiva l’alveo del fiume Rapido. Lo splendido Ponte dell’acquedotto, denominato LAGNARO, è caratterizzato da campata ampia 12 metri.

Le visite guidate saranno disponibili dalle 10:00 alle 18:00 di entrambi i giorni e l’organizzazione sarà a cura degli Apprendisti Ciceroni. 

CASSINO

A Cassino sarà aperta l’area archeologica e sarà possibile ammirare il Teatro dell’Età Augustea, l’anfiteatro ed il sagello sepolcrale di Ummidia Quadratilla, i resti della Via Latina, Ninfeo Ponari ed il museo archeologico della città.

Le visite guidate saranno disponibili dalle 10:00 alle 13:00 e dalle 15:00 alle 18:00 di entrambi i giorni e l’organizzazione sarà a cura degli Apprendisti Ciceroni. 

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Autore: Giovanni Gasparri (Linkedin | Facebook)
Data di Pubblicazione  15 Marzo 2014
Ultima Revisione: 15 Marzo 2014

PER APPROFONDIRE

Frecce spezzate – di Roberto Vacca

Su gentile concessione dell’autore Roberto Vacca abbiamo il piacere di pubblicare integralmente l’articolo dal titolo “Frecce Spezzate” del 06/12/2013.

Roberto Vacca

Ing. Roberto Vacca, famoso scrittore, divulgatore scientifico, saggista e matematico

Al bando la bomba (nucleare)

Che probabilità ci sono che si verifichi una guerra casuale, provocata da guasti o errori umani? Nel silenzio generale, lancio un appello, di Roberto Vacca, SETTE Green, Corriere della Sera, 6/12/2013

Condanniamo chi uccide o maltratta un solo essere umano. Peggio se le vittime sono milioni, come accadde nell’ultimo secolo. Invece nessuno menziona le colpe di omissione di chi mette a rischio la vita di miliardi di umani. Noi tutti potremo essere distrutti senza preavviso da una guerra nucleare non premeditata, scatenata per caso, senza odio. Già nel 1959, nel suo libro La questione della difesa nazionale, Oskar Morgenstern, economista matematico, inventore con John von Neumann della teoria matematica dei giochi competitivi, scriveva: «Un giorno un’arma nucleare esploderà in modo puramente accidentale, senza alcuna connessione con piani militari. La mente umana non può costruire qualcosa che sia infallibile». Il rischio, secondo lo studioso, non era tanto quello di una guerra nucleare scatenata da guerrafondai perversi o folli, ma da malfunzionamenti tecnici casuali o da errori umani. Possibilità reale o eccessivo allarmismo? Certo è che nel 1971 Usa e Urss avevano ben presente il problema e firmarono un accordo per “ridurre il rischio dello scoppio di una guerra nucleare” che conteneva questa considerazione: «La stessa esistenza di armi nucleari, anche gestite con le più sofisticate procedure di comando e controllo, è ovviamente fonte di continua preoccupazione. Malgrado le precauzioni più elaborate, è concepibile che un guasto tecnico o un errore umano o un incidente frainteso o un’azione non autorizzata possa scatenare un disastro o una guerra nucleare». Così, nel 1978, la Marina statunitense coniò il termine “freccia spezzata” (broken arrow) proprio per definire lo scoppio di un’arma nucleare che non implichi il pericolo di scatenare una guerra oppure un incendio o la perdita o il furto di un’arma nucleare e definì “lampo nucleare” (nucflash) l’incidente che causi un’esplosione termonucleare “tale da creare il rischio di una guerra fra Stati Uniti e Unione Sovietica”. Da allora è certo che il rischio è aumentato: oggi gli arsenali nucleari contengono migliaia di radar, computer e armi (con potenze distruttive equivalenti a milioni di tonnellate di alto esplosivo) che rendono complicato gestire i sistemi tecnologici di monitoraggio, di controllo e di comando.

Numeri e Stime. Ma che probabilità ci sono che una guerra nucleare “casuale” si verifichi davvero? Calcolarlo è arduo anche se, da mezzo secolo, i governi di molti Paesi ci provano. Fatti e dati, però, rimangono segreti. Le stime dell’Ufficio dell’Esercito americano per lo sviluppo di armi speciali non sono credibili. Nel 1971 indicavano una probabilità annuale di 1 su 100.000 per lo scoppio accidentale di una bomba H e di 1 su 125 per l’esplosione di una bomba A. Anche le stime delle possibilità di fusione del nucleo e di disastri conseguenti fatte nel 1975 da Rasmussen, erano troppo ottimistiche. Il direttore del Dipartimento energia nucleare dell’Mit sosteneva che un incidente tale da causare 100 morti si sarebbe verificato ogni 10.000 anni e uno tale da causare più di 1000 morti ogni milione di anni: ma 11 anni dopo ci fu Chernobyl: 64 morti per lo scoppio e oltre 4000 per le radiazioni. Eppure, anche se nessuna arma nucleare americana, russa o di altri Paesi è mai esplosa, i militari statunitensi hanno riferito molti casi di bombe H danneggiate, bruciate o sganciate in mare o sul terreno (in North Carolina (1961), in Texas (1966), per esempio). Tre bombe H Mark 28 caddero a Palomares in Spagna dopo la collisione del B-52 che le portava a bordo con l’aereo cisterna che lo stava rifornendo di carburante. Gli americani dovettero disinquinare un’area di oltre due chilometri quadrati dove si era sparso plutonio. La quarta bomba cadde in mare e fu ripescata tre mesi dopo a 800 metri di profondità da una flotta con sottomarini e palombari. L’operazione costò 600 mila dollari.

La caduta della chiave inglese. Il 18 settembre 1980 a Damascus, Arkansas, un tecnico lasciò cadere una grossa chiave inglese dall’altezza di 20 metri mentre faceva manutenzione nel silo del missile Titan II, con testata nucleare da 9 megaton. L’urto contro il missile provocò una fuga di carburante. Poche ore dopo l’ossigeno liquido e il carburante del missile esplosero provocando un incendio enorme. La porta di cemento e acciaio del silo, che pesava 740 tonnellate, si sfondò. La testata nucleare del missile fu proiettata a 200 metri di distanza e poi ritrovata intatta. Fra il personale, un morto e 21 feriti. Il libro di Eric Schlosser, Command and Control (Penguin, 2013), descrive in dettaglio questo incidente, in sé non tanto significativo ma elencato come l’ultima “freccia spezzata” in una lista di 32 pubblicata nel 1981 dal Dipartimento della Difesa americana (vedi The Defense Monitor 1981, pubblicato dal Center for Defense Information, gestito da ex alti ufficiali americani). È sconcertante che la US Air Force avesse in precedenza pubblicato una lista più lunga: 94 incidenti ad armi nucleari accaduti dal 1950 al 1957. Ma le cifre, forse, sono superiori. Da mie ricerche in rete ho trovato 121 “frecce spezzate” dal 1950 al 2003. Da allora non sono menzionati altri incidenti. Due all’anno in media per 53 anni e poi nessuno per 10 anni! È plausibile che la censura blocchi le informazioni perché, se fossero rese note, proverebbero che il rischio è maggiore di quanto finora stimato. Oltre ai difetti dei sistemi d’arma, anche i sistemi radar di difesa hanno fallito varie volte in modo clamoroso. Il 9 Novembre 1979 il sistema radar americano Bmews (Ballistic Missile Early Warning System), mirato a individuare prontamente missili balistici sovietici, diede l’allarme di un attacco missilistico contro gli Stati Uniti. Iniziarono i preparativi di rappresaglia con missili intercontinentali e bombardieri. I satelliti, però, non confermarono l’allarme e poco dopo si capì che per errore era stato inserito nel sistema un nastro di prova con segnali che simulavano un attacco, normalmente usato per addestramento del personale. Il 26 settembre 1983 un radar sovietico segnalò in arrivo cinque missili nucleari americani. Il colonnello Stanislav Petrov, che comandava la stazione radar vicino a Mosca, avrebbe dovuto dare l’allarme e scatenare la risposta nucleare russa. Pensò che un attacco americano con soli cinque missili non fosse credibile. Se avessero voluto attaccare, ne avrebbero sparati centinaia. Segnalò che si trattava di un falso allarme. Fu processato da una corte marziale per non aver seguito le regole e fu assolto. Aveva salvato il mondo.

Olocausto nucleare. Fatti e dati, anche se contraddittori, dovrebbero stimolare una seria riflessione sull’eventualità di una guerra nucleare “casuale”. Eppure regna il silenzio, anche se oggi gli arsenali nucleari contengono 12.000 testate che hanno un potere distruttivo equivalente a 700 chilogrammi di alto esplosivo per ogni essere umano. Se esplodessero, distruggerebbero la maggior parte del mondo. Per evitare il rischio dell’olocausto nucleare scatenato per caso dovrebbero essere eliminate tutte le armi nucleari. Ma la diplomazia internazionale è troppo lenta, i capi spirituali di religioni e di movimenti distratti. Invito quindi a divulgare un nuovo manifesto “Ban the bomb” (No alla bomba) per coinvolgere (senza frontiere) università, aziende, operatori web, sponsor pubblici e privati, movimenti spirituali e culturali, agenzie e mezzi di comunicazione di massa. È urgente. È morale.

© Roberto Vacca, http://www.robertovacca.com, Tutti i diritti riservati.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Una casa è per sempre

Bilder für Wikipedia

Il settore dell’edilizia è in crisi profonda da alcuni anni in Italia. Una delle zone più colpite è la Ciociaria che da sempre mette al servizio della Capitale le migliori e più qualificate risorse umane per la realizzazione di importanti progetti architettonici pubblici, artistici, industriali e residenziali di Roma.

La depressione del settore edile è un effetto della stagnazione del mercato immobiliare, dovuta prevalentemente alla mancanza di liquidità generalizzata, ma anche alle ridotte opportunità di trasferirsi per lavoro e soprattutto, diciamolo, alla radicata tendenza che gli Italiani hanno a restare in casa.

Il modo in cui siamo legati alla nostra casa, comparato alle altre culture occidentali, è quasi maniacale.

Specie nei paesini, le case vengono tramandate di generazione in generazione come dei testimoni che rappresentano la continuità con la storia genealogica di ciascuno di noi.
Non è raro trovare nuclei familiari che vivono in case secolari che sono appartenute da sempre alla famiglia.

Nella cultura dei Ciociari, poi, i genitori iniziano a preparare la casa per i figli già quando questi sono piccoli, senza considerare che magari un giorno andranno via lontano per soddisfare le proprie ambizioni o inseguire i propri sogni. E se non è possibile rendere più accogliente la casa natìa, magari espandendola, allora ne costruiscono o ne comprano una nelle immediate vicinanze.

L’esempio più eclatante del morboso attaccamento che abbiamo al focolare è rappresentato dal desiderio estremo di tutti gli anziani di tornare a morire nella propria casa, nel proprio letto. Questo rapporto che abbiamo con la casa è ciò che ci distingue maggiormente dalle altre culture ed il nostro modo di considerarla ci offre la possibilità di vivere in maniera più intima il nostro rapporto con la famiglia.

Guardando le case degli Italiani all’estero è da subito evidente che sono le più belle, le più grandi e le più curate. Per noi la casa è sacra e qualsiasi cosa possa succedere lì fuori ci interessa solo fino a quando chiudiamo il portone di casa. Da quel momento in poi si può scatenare anche l’inferno mentre ci godiamo la bellezza del focolare.

In Nord America al contrario c’è la tendenza a considerare la casa come un luogo temporaneo dove si vive e non come parte integrante della vita stessa.

Per questo si comprano e si vendono case molto velocemente ed il mercato immobiliare è più in fermento (nonostante i postumi della crisi dei subprime).

Un aspetto interessante da mettere in evidenza è che consideriamo nostra la casa perchè ci appartiene, ma non consideriamo invece nostro l’ambiente che ci circonda perchè non lo possediamo, non è di nostra proprietà.

Le altre culture invece considerano l’ambiente come un’estensione naturale della propria casa e per questo si prodigano per mantenerlo pulito. Questo non succede da noi, purtroppo, ed i fatti della Terra dei Fuochi o del fiume Sacco ne sono solo piccoli esempi che lo dimostrano tragicamente.

Si dovrà lavorare molto per creare una cultura dell’ambiente inteso come casa. Non dimentichiamo che è da qui che nasce l’ecologia, che in Greco significa proprioamore per la casa.

Impariamo a conoscere l’ambiente, le sue problematiche e come vivere in maniera sostenibile con esso, godendocelo senza consumarlo. Impariamo a considerare il mondo come casa nostra. Non deturpiamolo.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Autore: Giovanni Gasparri (Linkedin | Facebook)
Data di Pubblicazione  6 Marzo 2014
Ultima Revisione: 6 Marzo 2014

LICENZA

© Questo articolo, denominato “Una casa è per sempre” di Giovanni Gasparri  è fornito integralmente sotto licenza internazionale Creative Commons Attribution-ShareAlike 4.0.

Per consultare una copia della licenza d’uso visita il link http://creativecommons.org/licenses/by-sa/4.0/deed.it.

Tu hai il diritto di leggere, copiare, stampare, salvare, modificare, migliorare, distribuire, vendere, fotocopiare o correggere il presente lavoro. Le uniche restrizioni sono che se lo distribuisci, devi citare l’autore ed il titolo del documento, e se prendi spunto da questo lavoro per creare un’opera derivata devi allo stesso modo citarli. Con questa licenza ti diamo praticamente ogni libertà di utilizzare le informazioni, ad eccezione di togliere quella libertà ad altri.

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Fotovoltaico: imminente energia dell’avvenire – di Roberto Vacca

Su gentile concessione dell’autore Roberto Vacca abbiamo il piacere di pubblicare integralmente l’articolo dal titolo “Fotovoltaico: imminente energia dell’avvenire” del 2/11/2013.

Roberto Vacca

Ing. Roberto Vacca, famoso scrittore, divulgatore scientifico, saggista e matematico

Dopo i rapidi e notevoli aumenti del prezzo del petrolio a partire dagli anni Settanta, si associa quasi sempre a ogni considerazione su questioni energetiche la parola “crisi”. Continuano a essere citati disastri planetari visti come imminenti in base a dati incompleti e interpretati in modi erronei. Fra questi: il riscaldamento globale del pianeta attribuito al consumo eccessivo di carbone, petrolio e gas e l’esaurimento dei giacimenti petroliferi. L’avvenire del clima viene vaticinato usando modelli non validati, né validabili. La fine del petrolio è temuta da chi ignora che il livello delle riserve accertate continua a crescere, che l’origine del petrolio non è biologica e che esistono giacimenti enormi a grande profondità.

Invece le tendenze attuali indicano che avremo energia abbondante, non inquinante, a basso prezzo. Assumerà importanza primaria il fotovoltaico. L’ ottimismo non è dovuto solo alla recente notevole crescita, ma al velocissimo aumento dei rendimenti che, in laboratorio, sono saliti molto oltre il 15% tipico delle celle di silicio cristallino che, appunto, trasformano in elettricità meno di un sesto dell’energia dei raggi solari. Il trend di questo progresso sembra avviato a continuare. I rendimenti di celle fotovoltaiche che concentrano la radiazione solare anche 100 volte, crescono rapidamente. Varie industrie e centri di ricerca [fra cui: le americane Spectrolab, Amonix, Solar Junction, la giapponese Sharp e l’università australiana del South Wales] hanno superato il rendimento del 44% con un costo che si stima possa scendere a poco più di 2 dollari per Watt installato (cui bisogna aggiungere i costi delle infrastrutture e dei convertitori da corrente continua in alternata).

In Germania e in Italia costruttori e utenti hanno installato molto fotovoltaico. Conveniva perché interessanti incentivi statali andavano a chi lo adottava. Le risorse per questi aiuti sono state ottenute aumentando le tariffe agli altri utenti. Quindi il prezzo del kiloWattora in Germania e in Italia è fra i più alti in Europa (vedi tabella in fondo), ma non ha una correlazione significativa con la produzione industriale, né con l’andamento dell’economia in generale.

Ora gli incentivi diminuiscono e la crescita del fotovoltaico rallenterà. Però è stata superata una soglia importante: in Italia la potenza degli impianti per la generazione di energia eolici e fotovoltaici (24.500 MegaWatt) è maggiore di quella installata degli impianti idroelettrici (18.200 MW). Questi possono essere messi in funzione a piacere – in qualsiasi momento – senza vincoli. Gli eolici non danno energia se non c’è vento e i fotovoltaici non ne danno se non c’è il sole. La produzione di energia eolica più solare nel 2012 è stata di 32.269 GigaWattora (GWh). Quella di energia idroelettrica è stata di 43.854 GWh. Al tasso di crescita attuale, il fotovoltaico supererà l’idroelettrico entro un paio d’anni.

L’energia solare è tanto abbondante che per soddisfare il fabbisogno mondiale, basterebbe trasformare in elettricità anche solo col rendimento dell’1% la radiazione solare che incide sui deserti. Perché, allora, non si risolvono tutti i problemi energetici sfruttando celle foto-voltaiche? Perchè le celle foto-voltaiche sono ancora costose e il loro rendimento è ancora basso.

Il costo per installare 1 kiloWatt di potenza elettrica fotovoltaica è di 3.000 €. Quello per installare 1 kW idroelettrico o termoelettrico è poco più di 1.000 €. Alle nostre latitudini il sole trasmette a ogni m2 di superficie terrestre una potenza di circa 1.000 Watt. Le celle fotovoltaiche producono, quindi, circa 150 Watt/m2. Se coprono 1 km2 , producono 150 MegaWatt per 2.000 ore l’anno: cioè 300 GigaWattora. Gli impianti termoelettrici italiani hanno una potenza di 80 GigaWatt (equivalenti a 80 grandi centrali nucleari) e funzionano in media 2.700 ore l’anno producendo 220 TWh (TeraWattora = migliaia di GigaWattora). Sostituendoli col fotovoltaico, si risparmierebbero gas e carbone. La potenza richiesta sarebbe di 110 GW [80 GW x (2700/2000)] e l’area occupata (con rendimento attuale del 15%) di 730 km2 sarebbe (circa il 2,4 per mille di quella del Paese): ingombrante, ma non impensabile. L’impresa richiederebbe un investimento di 330 miliardi di € solo per i pannelli fotovoltaici a cui vanno aggiunte le infrastrutture e i sistemi per immagazzinare l’energia (prodotta quando c’è il sole e utilizzata anche quando non c’è). A questo scopo si possono usare batterie e si può pompare l’acqua dai bacini bassi ai laghi e a nuovi invasi a quote alte degli Appennini e delle Alpi. Abbiamo già oltre 7 GW di impianti di pompaggio; ne andrebbero costruiti altri e andrebbero riprogrammate le attività industriali e civili per ripartire la potenza nel tempo.

Destinando al pompaggio la metà della potenza fotovoltaica, cioè 55 GW, il costo delle centrali necessarie sarebbe di 55 miliardi di euro. Valutando in 2 ore/giorno il tempo in cui la potenza fotovoltaica va immagazzinata, l’energia prodotta richiederebbe in alternativa 110 GWh di batterie al litio con un investimento di 55 miliardi di € [500 €/kWh] dello stesso ordine di quello per le centrali di pompaggio. Con batterie al sale (che paiono imminenti) l’investimento in batterie si ridurrebbe al 40%. Possiamo stimare, per ora. che l’investimento totale debba essere circa di: 400 miliardi di €: un sesto del PIL.

Se il rendimento del fotovoltaico arrivasse al 40%, l’area occupata sarebbe di 270 km2 (meno dell’1 per mille di quella del Paese) e si occuperebbero anche le aree liberate dagli impianti termoelettrici dismessi. Si può anche pensare, con maggior fantasia, a coprire la superficie dei bacini idroelettrici con zattere coperte da pannelli fotovoltaici. Ho fatto il conto sulle centrali abruzzesi di Provvidenza, S. Giacomo e Montoro (900 MW di potenza) alimentate dal lago di Campotosto (superficie di 10 km2). Con la tecnologia attuale, le celle sul lago produrrebbero 1,5 GW e con un rendimento del 40%, 4 GW – oltre 4 volte di più della potenza idroelettrica.

Il rendimento massimo teorico è = 1–(T2/T1) = 1 – (293/6000) = 0,951, ove T2 è la temperatura ambiente (293°K = 20°C) e T1 (6000°K) è la temperatura della superficie solare. Il fisico inglese P.T. Landsberg ha dimostrato nel 1977 che il rendimento massimo teorico è del 93,3 %.

L’iniziativa più urgente è investire in ricerca e sviluppo per realizzare celle fotovoltaiche con rendimenti crescenti – a costi accettabili. La Commissione Europea dovrebbe indire gare e arruolare le aziende europee hitech. I governi dei 27 Paesi dell’Unione dovrebbero appoggiare energicamente questa impresa raggiungibile e risolutiva.

Tabelle

Paese
€/kWh usi domestici
€/kWh usi industriali
Media EU27
0,197
0,118
Danimarca
0,297
0,099
Germania
0,268
0,130
Italia
0,230
0,199
Francia
0,145
0,079
Romania
0,108
0,014
Prezzo energia elettrica in alcuni Paesi europei (2012) – Fonte: EUROSTAT
 

Anno

Fotovoltaico

Eolico

Fotovolt + eolico

Idroelettrico

2007

39 GWh

4034 GWh

4073 GWh

38481 GWh

2008

193

4861

5054

47227

2009

676

6543

7219

53443

2010

1905

9127

11032

54407

2011

10795

9857

20652

47767

2012

18862

13407

32269

43854

Energia prodotta in Italia da fonti rinnovabili – Fonte: TERNA
 
IM000982.JPG

© Roberto Vacca, http://www.robertovacca.com, Tutti i diritti riservati.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Tempesta solare scampata: e la prossima? – di Roberto Vacca

Su gentile concessione dell’autore Roberto Vacca abbiamo il piacere di pubblicare integralmente l’articolo dal titolo Tempesta solare scampata: e la prossima?” del 05/3/2012.

Roberto Vacca

Ing. Roberto Vacca, famoso scrittore, divulgatore scientifico, saggista e matematico

L’abbiamo scampata.

Il 23/1/2012 satelliti e stazioni a terra segnalarono in arrivo dal sole una tempesta di protoni: quelli con alta energia sono passati da 10 a 7500 per cm2 e per secondo [vedi diagramma]. Poi il flusso di protoni si è affievolito. Se fosse cresciuto molto, avremmo avuto disastri. Anche in Italia il cielo notturno si sarebbe colorato di verde, viola e rosso: aurore boreali che si vedono vicino ai poli. Poi sarebbe diventato rosso sangue. Grossi blackout ci avrebbero tolto l’elettricità. Le linee telefoniche e telegrafiche fuori uso avrebbero impedito gli interventi di emergenza. Ferrovie, gasdotti e oleodotti avrebbero subito danni gravi. Il blocco di reti e tecnologia nelle società più avanzate, prive di energia, potrebbe causare vittime a milioni.

Sono eventi, a decine di anni uno dall’altro, causati dal vento di protoni emessi dal sole: vanno a velocità fino a 7 milioni di km/h e arrivano a noi in circa 20 ore. Queste tempeste si chiamano CME: Coronal Mass Ejection: espulsione di massa dalla corona solare e proiettano miliardi di tonnellate di protoni. Non è fantascienza: SPECTRUM (la rivista degli ingegneri elettrici USA) questo mese dedica all’argomento un lungo articolo.

I protoni seguono traiettorie elicoidali. Le CME più intense producono campi magnetici giganti interagenti con la magnetosfera terrestre. Quindi correnti elettriche molto intense fluiscono nell’aria della stratosfera che a 50 km di quota è un buon conduttore. La tempesta geomagnetica induce sulla superficie terrestre forti correnti elettriche che passano nel terreno, nelle reti elettriche ad alta tensione, nelle tubazioni, nelle rotaie, nei cavi sottomarini. In conseguenza le reti vanno fuori servizio. Sono più a rischio le centrali elettronucleari: senza energia elettrica dalla rete non possono raffreddare i nuclei che possono fondere. In Europa, USA, Cina si potrebbero avere decine di disastri tipo Fukushima.

È meno tragico, ma molto spiacevole, il rischio di fusione degli avvolgimenti dei grandi trasformatori ad altissima tensione (765 kV in USA, 1000 kV in Cina). Ogni unità pesa 200 tonnellate e costa più di 10 milioni di euro. Non sono tenuti a magazzino e la produzione richiede molti mesi.

Anche i terroristi potrebbero farne saltare alcuni, ma un CME ne distruggerebbe decine bloccando per anni l’energia di continenti. I trasformatori si possono proteggere installando condensatori sulla messa a terra del neutro e bypassandoli con tubi elettronici per scaricare a terra le sovracorrenti alternate.

Queste tecniche, però, non sono state sperimentate in pratica. I CME sono rari. Nel 1859 il più grave, negli Stati Uniti fu preceduto da aurore boreali e cielo rosso a basse latitudini. A quel tempo non esistevano reti elettriche, ma andarono distrutte molte linee telegrafiche.

Un altro CME nel 1921 bloccò telefoni e telegrafi in Svezia e negli Stati Uniti e mise fuori servizio i sistemi di scambi e segnali della Ferrovia Centrale di New York. Le reti elettriche di energia, poco estese all’epoca, non subirono danni gravi. Nel 1989 i cieli colorati da un CME furono interpretati come lo scoppio di una guerra nucleare, ma in Canada ci fu un blackout di un giorno che lasciò senza energia elettrica tutto il Quebec.

Qualche giorno fa Pete Riley della Predictive Science di San Diego (un centro di ricerca sponsorizzato dalla NASA e dalla National Science Foundation – vedi: www.predscience.com/portal/home.php/) ha pubblicato suoi calcoli secondo i quali ci sarebbe una probabilità del 12,5 % che entro il 2020 si verifichi una Coronal Mass Ejection. L’affermazione sembra azzardata – ma il centro di Riley sembra affidabile.

Giornali, televisioni, politici e politologi non parlano dei rischi dovuti agli arsenali nucleari, né di questi – meno letali, ma significativi. Dovrebbero farlo.

© Roberto Vacca, http://www.robertovacca.com, Tutti i diritti riservati.

Flusso di protoni dal sole il 24/1/2012 – Fonte: Space Weather Prediction Center, NOAA

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente

Diario sui robot di Fukushima – di Roberto Vacca

Su gentile concessione dell’autore Roberto Vacca abbiamo il piacere di pubblicare integralmente l’articolo dal titolo “Diario sui robot di Fukushima” del 10/6/2012.

Roberto Vacca

Ing. Roberto Vacca, famoso scrittore, divulgatore scientifico, saggista e matematico

A monte del disastro della centrale nucleare di Fukushima dell’11 Marzo
2011, erano mancate difese adeguate. La rete elettrica giapponese era divisa in due parti a frequenze diverse (50 Hz e 60Hz) fra le quali un convertitore di frequenza poteva (e può) trasmettere solo l’uno percento della potenza generata.

La scelta della località della centrale era stata disastrosa: pericolo di tsunami di
40 metri un paio di volte al secolo e difese contro il mare del tutto inadeguate.
Avvenuto il disastro, i tecnici non potevano entrare nelle centrali per non subire
gli effetti di radiazioni nucleari pericolose. Si poteva rimediare facendo entrare
nei fabbricati robot radiocomandati muniti di telecamere. Quelli giapponesi,
però, avevano telecamere inadatte a funzionare in presenza di radiazioni.
Una settimana dopo il maremoto, il costruttore americano iRobot mise
gratuitamente a disposizione due piccoli robot Packbot e due più grandi robot
Warrior 710 muniti anche di braccia meccaniche per rimuovere detriti e rottami e manipolare oggetti.
I tecnici giapponesi dovettero essere addestrati a usarli.
L’impiego pratico potè iniziare solo un mese dopo il disastro. I robot erano
muniti di 5 telecamere di cui una a raggi infrarossi, di un dosimetro, un
analizzatore di particelle e uno dei tassi di ossigeno, idrogeno e gas organici.
Ogni robot ha un ricevitore GPS in modo che la sua posizione viene determinata
esattamente quando è all’esterno. Dentro i fabbricati, la posizione viene calcolata o stimata dalle immagini delle telecamere.
Le difficoltà incontrate erano documentate (tra aprile e luglio 2011) dal
diario di un operatore giapponese, noto solo con lesue iniziali S.H.

I diari erano intitolati “Dico tutto quel che voglio”. Le note di S.H. sono state scaricate da Web (prima che fossero cancellate) da un redattore del mensile SPECTRUM dell’Institute of Electrical and Electronics Engineers.

Ne risultano situazioni gravi e critiche. S.H. racconta che dopo una lunga operazione in cui aveva dovuto avvicinarsi molto al robot (data la scarsa portata della connessione radio) l’allarme del dosimetro che misurava il livello di radiazioni che aveva assorbito cominciò a suonare.

Il suo supervisore gli disse che il dosimetro era difettoso e che continuasse a lavorare.
I robot americani con telecamera entrarono nel fabbricato della centrale
N°1 il 3 giugno (84 giorni dopo il terremoto).
Due diverse aziende, sotto contratto con la TEPCO (Tokyo Electric Power
Company, proprietaria della centrale) gestivano un robot ciascuna. A metà
maggio S.H. riferisce:

“Continuiamo l’addestramento. È disagevole manovrare i robot attraverso le porte doppie, sui pianerottoli e poi farli salire ai piani superiori mandandoli in retromarcia. Lo stress di noi operatori è notevole.”

“Il 19 maggio la Prefettura di Fukushima ordina di interrompere le operazioni. Il morale degli operatori è a zero. Ci occupiamo con qualche lavoro di manutenzione non urgenti e ci accorgiamo che i robot presentano già segni di usura, sebbene siano robusti modelli militari.”

“30 Maggio – stamattina ho trovato il bagno occupato da uno sconosciuto ubriaco che si era addormentato per terra.”

“31 maggio – Tre operatori hanno completato l’addestramento con i robot. Principalmente hanno imparato a farli andare su e giù per le scale. Se c’è bisogno di noi potremo andare a fare il nostro lavoro ovunque nel mondo.”

“1 Giugno – ho letto le dichiarazioni ufficiali del governo. Mi pare che sottovalutino la gravità della situazione.”

“3 Giugno – I robot sono entrati nel reattore N°1. Abbiamo usato telecamere e controllo radio. Il livello delle radiazioni è di 60 milliSievert/ora, ma ho trovato un punto caldo in cui raggiungeva 4 Sievert/ora.”

“I cingoli dei robot slittano sui pavimenti e incontrano difficoltà con gli ammassi di detriti.”

“15 Giugno – Usiamo Ethernet per le comunicazioni e abbiamo collegato un cavo per LAN (Local Area Network). Il robot ne ha steso 45 metri. Poi ci siamo fermati perché il cavo non ha un riavvolgitore automatico”

“16 Giugno – comincio a usare i robot grandi Warrior che possono sollevare anche 250 kg.”

“19 giugno – molti operatori dovevano avere un giorno di riposo o sottoporsi a test medici, ma un funzionario governativo ha deciso che non c’era tempo per queste cose e che dovevano avere un altro giorno di addestramento.”

“20 giugno – problemi con la stabilità dei robot Warrior: l’aderenza è diversa nel cingolo destro e in quello sinistro, occorre molta cura perché sulle scale non ruotino su se stessi”

“23 giugno – usiamo i PackBot in un’area ove è alto il livello delle radiazioni. Un primo robot trasmette i segnali via radio al secondo che è connesso con noi via Ethernet. Il cavo Ethernet è segnalato con coni bianchi e rossi, ma la direzione ha mandato un camion da 4 tonnellate che ha rimosso i coni ed è passato varie volte sul cavo che per fortuna non si è rotto – se si fosse rotto i due robot sarebbero rimasti inutilizzati nell’area ad alte radiazioni. “

Solo dopo il 23 Giugno arrivarono alcuni moderni robot giapponesi Quince. Erano modelli in cui i circuiti integrati erano vulnerabili alle radiazioni e
avevano dovuto essere schermati opportunamente. Nell’ottobre 2011 uno di
questi tranciò il proprio cavo e dovette essere abbandonato. I Quince, come i
Warrior, sono progettati per uso in caso di disastri, ma nessuno di questi è adatto a trasportare feriti o disabilitati.

“3 luglio 2011 – i Packbot hanno misurato le radiazioni al primo piano del reattore N°3 che era stato decontaminato ieri dai robot Warrior. I livelli di radiazione sono diminuiti del 10%. In alcuni punti il livello è di 80 Sv/h.”

Come si vede, la preparazione all’emergenza era inadeguata a Fukushima.
La Gestione Totale della Qualità (Total Quality Management) avrebbe dovuto imporre la presenza di apparati e strumenti adatti a funzionare in condizioni estreme (alte radiazioni) e di personale già addestrato.

Sul lungo termine, le strategie energetiche e i problemi di sicurezza non si
risolvono con discorsi (anche se “paiono assai fondati”), né su principi
ideologici, né su astratti principi di precauzione.

Dobbiamo analizzare i fatti, studiare, addestrare tecnici eccellenti, finanziare ricerca e scuole avanzate.

© Roberto Vacca, http://www.robertovacca.com, Tutti i diritti riservati.

PENSIAMO GLOBALMENTE,
AGIAMO LOCALMENTE!

484224_234261176686773_258498387_n

Prima di stampare questa pagina considera l’impatto che avrà sull’ambiente