sabato 29 settembre 2012

La Pistola Fumante di Hansen

Da “EcoEquity”. Traduzione di Massimiliano Rupalti



di Tom Athanasiou

Ricordate quando il cambiamento climatico era qualcosa del quale avrebbero dovuto occuparsi i nostri nipoti? Così era una volta. Oggi, siamo in un mondo diverso. E' impossibile dire esattamente quando abbiamo fatto la transizione, anche se il senso comune è che sia accaduto fra, diciamo, il 2010 - un anno catastrofico con, ad esempio, il Pakistan (proprio il “Pakistan con armi nucleari”) ha sofferto di alluvioni così epiche e distruttive che hanno spinto la popolazione in fondo alla scala dello sviluppo – e, diciamo, il 2012, l'anno in cui la “dust-bowlificazione” del cuore dell'America è divenuta un fatto sul campo.

James Hansen usa un sistema di dati più scientifico. Nel suo nuovo saggio, Percezione Pubblica del Cambiamento Climatico ed il Nuovo Gioco ai Dadi col Clima, scritto con Makiko Sato e Reto Ruedy. Egli procede impostando una base formale e lo fa nei termini dei tre decenni dal 1951 al 1980. Sono stati gli ultimi della vecchia era. Da allora, non siamo più nell'Olocene, ma piuttosto ci siamo sempre di più cacciati nell'Antropocene. O, per usare la metafora preferita di Hansen, abbiamo tenacemente caricato il “gioco ai dadi col clima”. Tornando all'Olocene, due lati del dado erano (rossi) “caldi”, due erano (bianchi) “medi” e due erano (blu) “freddi”. Oggi,

  • “scopriamo che le anomalie delle reali temperature medie estive complessive sulla Terra, durante il decennio passato, sono state mediamente per il 75% nella “categoria caldo”, così fra i quattro e i cinque lati del dado erano rossi”.

Ma non è tutto.

  • “Un cambiamento più importante è l'emergere di un sottoinsieme della categoria caldo, valori estremamente caldi, definiti come anomalie superiori a 3 deviazioni standard. La frequenza di queste anomalie estreme è di circa lo 0,13% nella normale distribuzione e così un'estate tipica nel periodo della climatologia [nome usato da Hansen per il periodo base dal 1951 al 1980] avrebbe avuto solo circa lo 0,1-02% del globo colpito da tali caldi estremi. Mostriamo che durante gli ultimi anni, la porzione dell'area di terreno globale colpito da temperature estive anomale [3 deviazioni standard] ha avuto una media di circa il 10%. Così, un aumento di circa un fattore 50, paragonato al periodo della climatologia”.

Un fattore di 50 ed una pistola fumante statistica. Davvero? Hansen non esista:

  • “Esempi recenti di anomalie estreme nelle temperature estive [3 deviazioni standard] comprendono l'ondata di calore e la siccità in Oklahoma, Texas e Messico nel 2011 ed una regione più grande che comprende gran parte di Medio Oriente, Asia Occidentale ed Europa Orientale, compresa Mosca, nel 2010”.

Non siamo più in Kansas. O se ci siamo, è molto più asciutto di quanto non fosse prima. E Hansen sta violando le regole della “reticenza scientifica” indicandolo. Secondo The Economist, ciò ha “causato agitazione fra coloro che sentono che i saggi scientifici dovrebbero essere spassionati nel fornire delle prove”. Curiosamente, comunque, questo distinguo piuttosto rituale è seguito da un rapporto molto diretto, solo i fatti, sul saggio ed i suoi metodi.

Che non sono, bisognerebbe dirlo esplicitamente, basati su un modello climatico, ma piuttosto su un'analisi statistica lineare. Non c'è alcun negazionismo, neanche un accenno. Anche se dovremmo dire che The Economist, ai tempi di Yore, avrebbe insistito su questo. Ma questo è stato. Il punto ora è quello di “accettare che sia reale e di pensare alle conseguenze”.



venerdì 28 settembre 2012

Picco del Petrolio: due vicepresidenti di Total rispondono ad Oil Man

Da “Oil Man”. Traduzione di Massimiliano Rupalti 

Di Matthieu Auzennau

La direzione del gruppo Total ha accettato di presentare qui il suo scenario sull'avvenire del petrolio. Secondo loro, non si annuncia alcun declino del petrolio all'orizzonte... a condizione che da qui a 15 anni si sviluppi l'equivalente della metà dalla produzione mondiale attuale! Come riuscire in un tale tour de force? Sussistono vaste zone d'ombra in questo inedito scenario.

Mentre il nuovo governo francese non vede, non più del precedente, altre risposte al petrolio caro se non incoraggiarne il consumo, noi continuiamo qui a tentare di capire per quanto tempo ce ne resta (di petrolio non – troppo – caro). Stavolta sono andato a porre la domanda a due vice presidenti della industria petrolifera francese Total, Helle Kristoffersen e Guillaume Chalmin, responsabili della strategia prima società dell'Esagono.

Fra i grandi gruppi petroliferi, la Total è stata la sola finora a riconoscere che le estrazioni mondiali di greggio non potranno aumentare all'infinito. L'industria petrolifera francese lascia ad intendere un discorso prudente, a metà strada fra l'ottimismo dei suoi concorrenti e l'allarmismo di un buon numero di esperti indipendenti. Dopo i dettagli del nuovo scenario e della prospettiva presentate qui dalla Total in esclusiva, la compagnia petrolifera francese sembra ormai essersi allineata sull'ottimismo che predicano le altre major dell'industria del greggio. Al penultimo piano della torre della Total, ci sono Helle Kristoffersen, direttrice generale del gruppo e Guillaume Chalmin, incaricato più specificamente della strategia di esplorazione e di produzione, che mi hanno spiegato perché non c'è alcuna ragione di temere che il Picco del Petrolio (curioso che su wikipedia non ci sia la pagina in italiano... ndt.) arrivi a breve scadenza. Al fine di accrescere la produzione mondiale di petrolio fino al 2025-2030, per compensare il declino della produzione esistente, la Total punta sulla messa in produzione di non meno di 45 milioni di barili al giorno (Mb/g) di nuove capacità per l'insieme dell'industria.

45 Mb/g rappresentano un po' più di 4 Arabie Saudite, o più della metà dell'attuale produzione di petrolio greggio (83 Mb/g)!

Questa cifra, avanzata dalla Total, è compatibile con la diagnosi enunciata nel 2011 dal patron della Shell, Peter Voser: ”Servirebbe che il mondo aggiunga l'equivalente di 4 Arabie Saudite (sic) o di dieci Mari del Nord entro i prossimi dieci anni, nient'altro che per mantenere l'offerta al livello attuale” . Il tour de force sul quale contano la Total, la Shell e le altre major per mantenere a galla l'economia della crescita è in sé vertiginoso. Dove troviamo l'equivalente della produzione di quattro Arabie Saudite, nel momento in cui l'industria affronta una accelerazione del declino della produzione esistente e si trova in aggiunta a doversi dedicare a trovare e a produrre i nuovi giacimenti in condizioni sempre più estreme?

Christophe de Margerie, Amministratore delegato di Total. Soprannominato “Big Moustache” (Baffone), ha  messo in guardia, in dicembre a Doha, sul fatto che la produzione di greggio raggiungerà il suo picco nel corso del prossimo decennio. Al di là di questa data, c'è il “punto interrogativo”, ha avvertito. E se fosse stato prima? 

Helle Kristoffersen e Guillaume Chalmin hanno accettato di fornirci qui la lista delle spese necessarie all'industria petrolifera per arrivare a pompare questi famigerati 45 Mb/g supllementari.

Queste nuove e attese capacità produttive sono, da un lato da giacimenti petroliferi completamente nuovi, e dall'altro lato da giacimenti già in produzione dei quali la Total ritiene possibile un rilancio dell'estrazione.  Dal versante dei nuovi giacimenti, ecco cosa offre in aggiunta il pianeta secondo quanto sottoposto dalla direzione della Total: 

- Sabbie bituminose, essenzialmente in Canada, dove la Total è azionista di maggioranza: + 7 Mb/g (!)
- Iraq: + 5 Mb/g
- Offshore di grande profondità al largo del Brasile: da + 3 a  +4 Mb/g
- Giacimenti “compatti” in Nord America (sicsti petroliferi, essenzialmente) : da + 2 a +4 Mb/g
- La direzione di Total cita anche diverse nuove risorse in corso di prospezione in Africa, nel grande Nord o al largo della Guyana, la cui produzione futura è riconosciuta come più incerta; in seguito alle cifre anticipate, l'insieme di queste risorse rappresentano a priori un potenziale di produzione supplementare da + 2 a +5 Mb/g.

Nel migliore dei casi, la Total ottiene dunque un totale di circa 25 Mb/g di capacità d'estrazione da pozzi che non esistono ancora.

Dove troviamo i 20 o 25 Mb/g che mancano per arrivare all'obbiettivo di 45 Mb/g supplementari? La direzione della Total non ha fornito una risposta diretta a questa domanda decisiva...

I due alti dirigenti della Total che ho interrogato non hanno voluto fornire un elenco, seppur approssimativo, delle principali aree petrolifere esistenti grazie alle quali essi giudicano che sarà possibile fermare, o almeno di rallentare, l'emorragia (vale a dire l'esaurimento inesorabile delle riserve ed il declino in corso o imminente delle estrazioni di un numero sempre più importante di vecchi giacimenti). Solo il caso degli Stati Uniti è stato evocato, in termini leggermente ottimistici, come vedremo. 

La Signora Kristoffersen e i Signor Chalmin si sono soprattutto rifiutati di anticipare delle figure chiave riguardo ai paesi dell'OPEC e della Russia, giustificandosi, e senza dubbio in modo un po' frettoloso, con l'opacità dei dati disponibili. Peccato, poiché l'OPEC e la Russia controllano l'essenza delle riserve provate di oro nero ancora disponibili, ma fanno ugualmente parte dei produttori di più lungo corso...

Anche per i paesi produttori più chiusi, i dati sono ovviamente disponibili. I vecchi giacimenti declinano anche in modo nettamente più rapido del tasso mondiale comunemente riconosciuto, situato fra il 2 e il 5% per anno. Il direttore scientifico di Total, Jean-François Minster, mi ha indicato in aprile che “nei paesi dell'OPEC o in Russia, il tasso di declino [di certi giacimenti] può raggiungere dal 6 al 9% per anno”. 

Per rispondere (indirettamente, quindi) alle mie domande sui 20-25 Mb/g mancanti al conto totale delle nuove capacità previste dalla Total, Helle Kristoffersen, direttrice delle strategie e dell'intelligence economica del gruppo, ha evocato la colossale somma di in nuovi investimenti realizzati dall'industria petrolifera un poì ovunque nel mondo: 600 miliardi di dollari, nulla nel 2011, sono quasi un quarto del PIL della Francia! Tuttavia, il ritardo molto forte subito da Total ed i suoi partner nello sviluppo del giacimento gigante ma difficile nel Mar Caspio, o ancora i contrattempi tecnici riscontrati nel grande Nord, specialmente dalla BP, mostrano che investire miliardi non è più sufficiente per garantire la produzione.

Helle Kristoffersen, vice-presidente di Total, incaricata della strategia del gruppo: i petroli da scisti necessitano “da 10 a 100 volte più pozzi”.

Guillaume Chalmin, incaricato della strategia di produzione della Total, da parte sua ha insistito sui progressi della sismologia e delle tecniche di recupero. Tuttavia riconosce senza problemi che, una volta messe in opera, non garantiscono in nulla un aumento della produzione dei vecchi giacimenti. Al contrario, la direzione della Total esprime il suo scetticismo riguardo al “miracolo" del petrolio da scisti promesso da certuni da oltre Atlantico. Helle Kristoffersen sottolinea che l'estrazione da quei bacini compatti necessita la perforazione “da dieci a cento volte tanto di pozzi” che non il petrolio convenzionale. Gli Stati Uniti non torneranno mai autosufficienti grazie a quelli, precisa. 

Al 46° piano della torre della Total alla Defence (dalla quale il mondo potrebbe sembrare malleabile), danno l'impressione di essere risoluti a dare per scontati interrogativi enormi.

Lo scenario 'dei buchi' che presenta la Total può essere paragonato con la previsione considerata oggi come la più ottimista, quella pubblicata in giugno da Leonardo Maugeri, vecchio dirigente della compagnia petrolifera italiana ENI. Questo paragone può lasciare perplessi.

L'analisi di Leonardo Maugeri, in particolare la sua stima di un ritmo lento di declino della produzione esistente, è stata giudicata totalmente irrealistica da numerosi esperti indipendenti di primo piano, sul forum pubblico di "oil man”, sul sito del Financial Times, o ancora sul principale sito americano dedicato al picco del petrolio, TheOilDrum. Sul versante delle nuove capacità di produzione previste, la direzione della Total si mostra molto più ottimista di Maugeri stesso. 

Maugeri inizia il suo rapporto affermando che queste nuove capacità di produzione possono, in assoluto, raggiungere i 49 Mb/g dal 2020. ma egli riduce immediatamente questa cifra a 29 Mb/g – il che è già oltre quanto l'industria petrolifera sia mai riuscita a fare in un lasso di tempo così breve – senza tenere in conto, dece lui, dei “rischi” e delle “restrizioni” di natura sia tecnica sia politica. E' ben al di sotto dei 45 Mb/g supplementari per l'orizzonte del 2025 previsto dalla Total (i cinque anni che separano le scadenze dei due pronostici sono relativamente poco significative, nella misura in cui bisogna contare da 7 a 10 anni per mettere in produzione tutti i nuovi giacimenti). Le nuove capacità di produzione attese dalla Total appaiono dunque molto più massicce di quelle considerate dal più ottimista degli esperti petroliferi. 

Come possiamo concludere? Almeno questo: alla Total o da altre parti, l'incertezza nella quale è immersa ormai l'industria più vitale dell'economia mondiale sembra raggiungere un livello impressionante. 

La difficoltà di rinnovare le riserve esaurite ormai è una realtà centrale per questa industria, dal gigante americano Exxon, che non è riuscito a ricostituire che il 95% delle sue riserve nel corso degli ultimi 10 anni, alla 'piccola' compagnia petrolifera franco-britannica Perenco, che si è trovata di fronte a un crollo delle sue prospettive di produzione. L'amministratore delegatodella Total, Christophe de Margerie, ha parlato in modo diverso successivamente alla grande fiera annuale dell'industria dell'oro nero. In Qatar, a dicembre, ha affrontato apertamente il problema del picco del petrolio, un tabu per i dirigenti della altre major. Secondo “Baffone”, la produzione mondiale raggiungerà il suo massimo nel corso degli anni 20 del 2000, a 95 Mb/g contro gli 83 di oggi. Oltre c'è il “punto interrogativo”, ha riconosciuto Christophe De Margerie, aggiungendo tuttavia immediatamente :

“Disponiamo di enormi risorse. Il problema non sono le risorse, è sapere come estrarle in modo accettabile”. 

Guillaume Chalmin insiste: i 45 Mb/g di capacità supplementari che devono essere messe in opera imperativamente per raggiungere il livello mondiale di 95 Mb/g promesso dall'Amministratore delegato della Total; “non è della pubblicità”. Tuttavia, questa previsione fantastica non ha la minima possibilità di realizzarsi se i banchieri e gli assicuratori non dovessero mai convincersi del suo realismo (la banca multinazionale HSBC così come le compagnie di assicurazione più vecchie, i Lloyd's, hanno già espresso dubbi profondi). Si può temere che l'esistenza di una tale e necessaria condizione autorealizzatrice pesi sulla credibilità dell'insieme della previsione qui difesa dalla Total. Detto altrimenti, è decisamente plausibile che il “punto interrogativo” identificato dalla Total da qualche parte nel  terzo decennio del 2000, si sia verificato in effetti molto prima.

E' possibile che il re del petrolio sia nudo?

[Lo sviluppo di greggi sporchi ha bisogno di investimenti molto importanti e solleva delle grandi sfide ambientali]

Questo grafico è tratto dall'ultima previsione pubblicata dalla Total, nel 2008. Il picco del petrolio allora era stato posto intorno al 2020. La Total ha ormai ridimensionato questa data fatidica. Ma questo recupero di speranza della grande compagnia petrolifera francese è fondato?









giovedì 27 settembre 2012

Le misure satellitari della perdita di ghiaccio





Immagine: Vista dall'albero di uno yacht. Il ghiaccio estivo del pack mostra un ritmo di perdita del 50% più alto di quanto anticipato. Foto: Mike Powell/Corbis


Questo articolo del "Guardian" è di circa un mese fa. Tuttavia, ci sembra il caso di pubblicarne una traduzione oggi alla luce del fatto che la fase di fusione estiva dei ghiacci artici si è conclusa proprio in questi giorni con un minimo inferiore a qualsiasi record storico. Questo ha dato origine a diverse domande su come si misura esattamente la perdita di ghiaccio e con quale precisione. L'articolo qui di seguito descrive i metodi di misura ed è anche interessante perché mostra che già verso i primi di Agosto, i ricercatori specialisti nell'artico avevano capito cosa stava succedendo.

Le nuove immagini satellitari mostrano che la copertura di ghiaccio polare sta diminuendo in estensione e spessore.

Da “The Guardian”. Traduzione di Massimiliano Rupalti

Il ghiaccio marino dell'Artico sta scomparendo ad un ritmo più alto di quanto ci si aspettasse, secondo i dati del primo satellite costruito a questo proposito e lanciato per studiare lo spessore delle calotte polari terrestri. I risultati preliminari della sonda Cryosta-2 dell'Agenzia Spaziale Europea indicano che 900 chilometri cubici di ghiaccio marino estivo è scomparso dall'oceano Artico durante lo scorso anno. Questo ritmo di perdita è del 50% più alto della gran parte degli scenari delineati dagli scienziati polari e suggerisce che il riscaldamento globale, innescato dall'aumento delle emissioni di gas serra, sta  cominciando ad avere un grande impatto sulla regione. In pochi anni, l'oceano Artico potrebbe essere libero dai ghiacci in estate, innescando una corsa allo sfruttamento delle sue riserve di pesce, petrolio minerali e rotte marine.

Usando gli strumenti sui vecchi satelliti, gli scienziati potevano vedere che l'area coperta da ghiaccio marino estivo nell'Artico stava diminuendo rapidamente. Ma le nuove misurazioni indicano che questo ghiaccio si sta assottigliando drammaticamente allo stesso tempo. Per esempio, nelle regioni a nord del Canada e della Groenlandia, dove lo spessore del ghiaccio è stato di circa 5-6 metri in estate un decennio fa, i livelli sono crollati a 1-3 metri.

“Le analisi preliminari dei nostri dati indicano che il ritmo di perdita del volume di ghiaccio marino in estate nell'Artico potrebbe essere di gran lunga maggiore di quanto sospettassimo”, ha detto il Dr. Seymour Laxon del Centro per le Osservazioni Polari e di Modellizzazione al University College di Londra (UCL), dove i dati del CryoSat-2 sono stati analizzati. “Molto presto potremmo assistere al momento storico quando, in un giorno d'estate, guardiamo le immagini dal satellite e non vediamo alcuna copertura di ghiaccio marino nell'Artico, ma solo acqua”.

Le conseguenze della perdita della copertura di ghiaccio artico, anche soltanto per parte dell'anno, potrebbero essere profonde. Senza la brillantezza bianca della calotta che riflette la luce solare nello spazio, la regione si riscalderà anche di pià di quanto non faccia ora. Come conseguenza, le temperature dell'oceano saliranno ed i depositi di metano sul fondo potrebbero sciogliersi, evaporare e gorgogliare fino all'atmosfera. Gli scienziati hanno riportato di recente che i pennacchi di metano, ora stanno apparendo in molte aree. Il metano è un gas serra particolarmente potente e l'aumento dei suoi livelli in atmosfera possono soltanto accelerare il riscaldamento globale. E con la scomparsa del ghiaccio marino estivo intorno alle coste della Groenlandia, i suoi ghiacciai potrebbero sciogliersi ed aumentare il livelli del mare molto più rapidamente che in questo momento.

Il Professor Chris Rapley della UCL ha detto: “Con il gradiente di temperatura fra l'Artico e l'Equatore in caduta, come sta avvenendo ora, è anche possibile che la Corrente a Getto (Jet Stream) nell'alta atmosfera possa diventare più instabile. Questo potrebbe significare un aumento della volatilità del tempo alle latitudini più basse, simili a quelle che abbiamo vissuto in questi anni”.

Il CryoSat-2 è il primo satellite al mondo ad essere stato costruito specificatamente per studiare lo spessoere del ghiaccio marino ed è stato messo in orbita da un missile Dniepr dal cosmodromo di Baikonur, in Kazakhistan, l'8 aprile del 2010. I precedenti satelliti di monitoraggio della Terra avevamo mappato l'estensione della copertura del ghiaccio marinonell'Artico. Tuttavia, lo spessore di quel ghiaccio si era rivelato più difficile da misurare. La sonda statunitense ICEsat ha fatto alcune importanti misurazioni dello spessore del ghiaccio, ma ha operato a intermittenza e solo in alcune regioni prima di smettere di funzionare completamente nel 2009. Il CryoSat è stato progettato specificatamente per affrontare il problema dello spessore del ghiaccio, sia nell'Artico sia nell'Antartico. E' stato equipaggiato di un radar che può vedere attraverso le nuvole (i laser dell'ICEsat non potevano penetrare le nuvole). L'orbita del CryoSat è stata anchessa progettata per dare una maggior copertura del mar Artico.

“Prima del CryoSat, potevamo vedere che la copertura estiva di ghiaccio stava crollando marcatamente nell'Artico”, ha detto Rapley, “ma avevamo soltanto dei barlumi di quanto stesse accadendo allo spessore del ghiaccio. Ovviamente se anch'esso stava crollando, la perdita del ghiaccio estivo sarebbe stato ancora più significativo. Avevamo bisogno di sapere cosa stava succedendo ed ora CryoSat ci ha dato la risposta. Esso ha mostrato che la calotta marina Artica non si sta soltanto riducendo in estensione, ma si sta anche assottigliando drammaticamente”.

La copertura di ghiaccio marino nell'Artico varia sensibilmente durante l'anno, raggiungendo un massimo in marzo. Mettendo insieme i precedenti risultati di ICESat ed i dati di altri studi, comprese misurazioni fatte da sottomarini in rotta sotto la calotta polare, Laxon ha detto che le analisi preliminari ora danno un'indicazione chiara della perdita di ghiaccio marino artico durante gli 8 anni scorsi., sia in inverno sia in estate.

Nell'inverno del 2004, il volume di ghiaccio marino nell'Artico centrale era ad circa 17.000 chilometri cubici. Quest'inverno era di 14.000, secondo CryoSat.

Tuttavia, i valori estive rivelano un vero shock. Nel 2004 c'erano circa 13.000 chilometri cubici di ghiaccio marino nell'Artico. Nel 2012 ci sono 7.000 chilometri cubici, quasi metà dei valori di 8 anni fa. Se l'attuale perdita annuale di circa 900 chilometri cubici continua, la copertura di ghiaccio estivo potrebbe scomparire in circa un decennio nell'Artico.

Tuttavia, Laxon ha invitato alla cautela, dicendo: “Innanzitutto, questo si basa su studi preliminari dei valori di CryoSat, quindi dovremmo aspettare prima di correre alla conclusioni. Inoltre, l'attuale ritmo di declino del volume di ghiaccio potrebbe cambiare”. Ciononostante, gli esperti dicono che i modelli al computer indicano che i ritmi di declino del volume del ghiaccio sono solo destinati ad aumentare durante il prossimo decennio.

Circa l'esattezza delle misurazioni fatte da CryoSat, queste sono state calibrate confrontandole con le misurazioni fatte sulla superficie del ghiaccio dagli scienziati, compreso Laxon, con aerei in volo sotto all'orbita del satellite e da dati forniti da stazioni sonar sottomarine che hanno analizzato lo spessore del ghiaccio in posti selezionati nell'Artico. “Ora possiamo dire con una certa sicurezza che le mappe dello spessore del ghiaccio di CryoSat sono corrette con una tolleranza di 10 cm”, ha aggiunto Laxon.

Laxon ha anche indicato che il ritmo di perdita del ghiaccio in inevrno è stato molto più lento di quello in estate. “Questo suggerisce che, quando comincia l'inverno, il ghiaccio cresce più rapidamente di quanto non facesse in passato e questo effetto compensa, parzialmente, la perdita di ghiaccio estivo”. Complessivamente, la tendenza della copertura di ghiaccio nell'Artico è decisamente alla diminuzione, in particolar modo in estate - un punto sostenuto recentemente dal Professor Peter Wadham, che quest'anno ha fatto indagini della calotta di ghiaccio con aerei e sottomarini per fare stime della perdita di ghiaccio estivo. Queste indicano anche grandi riduzioni nel volume del ghiaccio marino estivo, circa il 70% negli ultimi 30 anni.

“L'Artico è particolarmente vulnerabile all'impatto del riscaldamento globale”, ha detto Rapley. “Le temperature là stanno salendo molto più velocemente di quanto non facciano all'Equatore. Pertanto anche la copertura di ghiaccio marino che abbiamo visto. Essa ci sta dicendo che qualcosa di molto significativo sta accadendo alla Terra. I sistemi climatici del pianeta sono interconnessi, quindi ciò che accade alla alte latitudini ci condiziona tutti”.






domenica 23 settembre 2012

Orlov sulla crisi alimentare globale

Da “Club Orlov”. Traduzione di Massimiliano Rupalti


Alex Jeffreys

Condizioni Rivoluzionarie
di Dmtri Orlov

Avviso ai naviganti: a cominciare dal 2013, in molte parti del pianeta Terra ci sarà troppo poco cibo e troppa agitazione politica che le renderanno mete poco desiderabili.

Il cibo sta per diventare molto caro ovunque: gli stati agricoli degli Stati Uniti stanno attraversando la peggior siccità dal tempo del Dust Bowl (la grande siccità degli anni 1930). In Russia ed Ucraina le ondate di calore hanno prodotto effetti simili, con stime di produzione del grano inferiori del 30-50% rispetto allo scorso anno. In India, le fondamentali piogge monsoniche sono già inferiori del 22%.

Ad esacerbare i raccolti miseri in tutto il mondo, contribuisce lo schema da morte cerebrale degli Stati Uniti, che ordina che la gran parte del proprio raccolto di mais venga destinato alla produzione di etanolo, facendo alzare così il prezzo del mais e danneggiando così i produttori di bovini e pollame. (Questo è un altro sintomo ancora del sistema politico a pezzi degli Stati Uniti: con un ERoEI basso,  l'etanolo da mais a malapena si qualifica come fonte di energia)

Il problema viene ulteriormente inasprito dalla finanziarizzazione dei prodotti agricoli; Al posto di venire usati per arginare il rischio dei consumatori, i futures agricoli sono diventati i trastulli degli operatori che scommettono con grandi capitali cercando di trarre profitto dal disastro. L'effetto è quello di renderi i picchi dei prezzi del cibo molto più alti. E' già avvenuto nel 2008 e sta accadendo di nuovo adesso.

Quando il cibo diventa troppo caro, la gente s'incazza. Uno studio di Marco Lagi et al. (citato su Trade Off di Korowicz) include il seguente grafico che mostra la tempistica degli scoppi dei disordini sociali relativi ai picchi dei prezzi:




I paesi più a rischio sono quelli dove il cibo costituisce la gran parte della spesa complessiva: 40% in Cina, 43% nelle Filippine, 45% in Indonesia, 48% in Pakistan, 50% in India e Vietnam e 70% in Congo. Se il prezzo del cibo raddoppia, gran parte della loro popolazione diventerà malnutrita (sempre che non lo sia già). Andate qui per esplorare quei dati voi stessi. (Sarebbe d'aiuto includere i dati sulla percentuale di calorie che ogni paese importa; i paesi più poveri che importano i carboidrati fondamentali sono più a rischio).

Gli Stati Uniti, con solo il 14% della spesa che va in cibo, potrebbero sembrare relativamente immuni da questo effetto, ma in realtà non lo sono. Ci sono 50 milioni di persone negli Stati Uniti che vivono con i buoni pasto (Food Stamp) e quindi se i prezzi del cibo raddoppiano si dimezza la quantità di cibo disponibile per loro, a meno che non ci sia un aumento analogo nel finanziamento dei buoni pasto. Con le finanze del governo federale allo sbando, il Congresso ad un punto morto e il bilancio federale in via di sequestro (il che avrà la conseguenza di tagli automatici e draconiani a partire dal 2013), un tale aumento sembra improbabile. Milioni di persone in più negli Stati Uniti saranno costrette a scegliere fra comprare il cibo e pagare i propri mutui, portando ad un altro giro di default dei mutui ed alla prossima ondata dell'infinita crisi finanziaria. Con la diffusa disponibilità negli Stati Uniti di cibo a buon mercato lavorato e di bassa qualità, gli aumenti dei prezzi significheranno che tale cibo insalubre diventerà ancor di più base della dieta media, con effetti negativi sulla nutrizione e la salute. Gli Stati Uniti non sono il Congo, ma nemmeno la Svizzera.

I picchi del prezzo del cibo e la scarsità di cibo sono molto efficaci nel portare la gente alla rivolta. Visto che tutti dobbiamo mangiare, il cibo non è un problema che divide. Mentre i regimi politici sono molto abili nello sfruttare differenze di opinioni per dividere e neutralizzare il popolino (negli Stati Uniti, problemi come i diritti degli omosessuali e l'aborto sono i loro attrezzi preferiti), una carenza di cibo dividerebbe la popolazione in affamati e ben nutriti. I ben nutriti inevitabilmente si riveleranno essere una minoranza difesa, per un po', da coloro che sono leggermente meno ben nutriti. Essi tendono ad essere identificati col regime o con gli interessi monetari che li sostengono e verranno fatti sloggiare. Così è il regime.

I regimi politici tendono ad essere molto abili nel fermare le ribellioni, ma i disordini sociali prodotti da una carenza di cibo possono essere affrontati soltanto ponendo rimedio alla carenza di cibo. Se proprio non c'è abbastanza cibo rimasto da distribuire, le loro scelte di azione divengono piuttosto limitate. In alcuni casi il governo può esercitare un controllo politico diretto sulla produzione di cibo e nutrire coloro che servono a proteggerlo, facendo morire di fame tutti gli altri. Ma gli ultimi decenni di politiche neoliberali nel mondo, hanno fatto in modo che siano rimasti pochi paesi nei quali questo è ancora possibile. Così, lo scoppio della rivolta sarà probabilmente concentrato direttamente sulle multinazionali, e la loro presenza in molti paesi giungerà ad una fine brusca e caotica. Oppure, dove sono coinvolti i loro interessi vitali, giungerà a somigliare ad una occupazione militare. Date i recenti progressi nelle tecniche di guerriglia, tali occupazioni sono destinate ad avere una fine allo stesso modo caotica.

Il fallimento dei regimi politici deboli e neoliberali nel mondo rivelerà gli uomini che hanno realmente tirato il fili. Molti paesi rimarranno stati nazionali solo nominalmente; la sovranità è stata erosa al punto che ora sono dei meri servitori degli affari e della finanza transnazionale. Gli stati-nazione residuali continueranno a servire una funzione: controllare i propri confini. Essi sono di fatto delle prigioni che tengono alcuni all'interno ed altri all'esterno. Ma per gli affari e la finanza transnazionali ora sono entità porose che favoriscono la loro pratica dell'arbitraggio del lavoro (trovare lavoro più a buon mercato) e arbitraggio giurisdizionale (trovare meno regole). Il governo degli Stati Uniti è oggi poco più di un proxy, con i suoi candidati presidenziali (1, 2) controllati, designati e finanziati da aziende di investimenti multinazionali come Goldman Sachs. Un recente voto all'Assemblea Generale delle Nazioni Unite che accusa Bashar Assad della Siria, ha prodotto un elenco degli stati-nazione che restano. Queste sono le sole nazioni i cui governi possiedono ancora un'indipendenza di volontà sufficiente per opporsi al cambiamento di regime voluto dagli Stati Uniti in Siria. Sono: Siria (naturalmente), Russia, Cina, Iran, Bieolorussia, Myammar (ex Birmania), Zimbabwe, Corea del Nord, Cuba, Nicaragua, Venezuela e Bolivia. Resta da vedere quanto sarà d'aiuto lo loro indipendenza quando dovranno sfamare le loro popolazioni.

I tre indicatori principali del collasso sembrano essere il declino dell'uso di petrolio, la deflazione del debito e il declino della popolazione, con il petrolio come indicatore principale e la popolazione come indicatore ritardato. Ma date le crisi alimentari che incombono su di noi, comincia a sembrare che non tarderà a lungo.


venerdì 21 settembre 2012

Test negativi sulle Scoperte di Energie Rivoluzionarie



Di Scott R. Little (American Institute of Aeronautics and Astronautics)
Da Earthtech International.Traduzione di Massimiliano Rupalti


La razza umana ha un disperato bisogno di una migliore fonte di energia sia per il viaggio spaziale, sia per l'uso terrestre. Questo bisogno genera numerose invenzioni e scoperte di nuovi dispositivi energetici. Alcuni di questi dispositivi sono stati valutati, con una singolare mancanza di successo. Presentiamo le storie dei casi interessanti con l'obbiettivo di promuovere una migliore comprensione dei problemi incontrati nella valutazione di quei dispositivi energetici.

I. Introduzione

Non c'è alcun dubbio sul fatto che il nostro sistema basato sugli idrocarburi stia lentamente crollando. La fornitura di combustibili fossili è limitata e i prodotti della combustione stanno costantemente inquinando il nostro ambiente. L'energia nucleare convenzionale è a sua volta problematica: il combustibile è in quantità limitate, vengono prodotte scorie indesiderate e c'è una significativa preoccupazione delle gente sulla sicurezza degli impianti nucleari.

Ma questi problemi terrestri impallidiscono di fronte alle probabili necessità energetiche per il viaggio interstellare. Per esempio, consideriamo un'ipotetica missione per Alpha Centauri in una nave delle dimensioni di un boeing 747. Acceleriamo a 1g fino a metà strada per poi decelerare da 1g finché non arriviamo alla destinazione finale, 4,3 anni luce dalla Terra. A metà strada, la nave si muove a 0,95c. Per i passeggeri, il viaggio dura solo 3,6 anni, mentre passano 5,9 anni per coloro che rimangono sulla Terra. Un motore ancora da sviluppare, che converte per intero il suo combustibile in energia e lo invia fino allo scarico, guida la nostra nave con la massima efficienza del combustibile. Nonostante questa efficienza, il viaggio richiede una quantità impressionante, 3,8 x 106 kg, di combustibile, 38 volte il peso della nave.

L'energia richiesta per questo viaggio ideale di sola andata per Alpha Centauri è circa 800 volte l'attuale consumo di energia annuale del mondo. Di fronte a problemi così monumentali, gli esseri umani escogitano dei piani per risolverli. Spesso, il piano comprende un dispositivo che si presume produca più energia di quanta ne serva per farli funzionare. A volte l'inventore pensa ingenuamente che il suo dispositivo stia semplicemente creando un'energia extra. Più spesso l'inventore crede che il suo dispositivo stia attingendo ad una nuova fonte di energia. Le 'scoperte' di energie rivoluzionarie non sono nulla di nuovo. La storia del flusso continuo di tali scoperte inizia nel tredicesimo secolo con un semplice dispositivo meccanico attribuito a Wilars de Honecort (1). Leonardo da Vinci giocava con l'idea di una macchina del moto perpetuo idraulica durante la sua gioventù (2). Nel 700, Johann Bessler (detto Orffyreus) ha sviluppato una macchina del moto perpetuo che è stata ampiamente testimoniata ma che rimane, ad oggi, avvolta nel mistero. Ci sono numerosi altri dispositivi, principalmente inventati da individui carismatici senza alcuna preparazione scientifica. Mentre la scienza progrediva in direzione del riconoscimento formale delle leggi della termodinamica, a metà del 800, le scoperte sul moto perpetuo diventavano considerevolmente meno accettabili, ma difficilmente meno frequenti. Nel 1870, Henry Dircks descriveva in modo eloquente coloro che dichiaravano la scoperta del moto perpetuo in questo modo: “Una classe della comunità più ostinata, soddisfatta di sé o delusa di sé che allo stesso tempo si vanti di una maggior conoscenza, è difficile da immaginare. Essi sperano contro ogni speranza, disprezzando tutta ciò che vi si oppone con ridicola veemenza, anche se i secoli non li hanno fatti avanzare di un passo sulla via del progresso” (3).

Fortunatamente, le cose sono cambiate. Nella nostra era di scienza e tecnologia, quasi tutti accettano le leggi della termodinamica. La maggior parte delle scoperte di una nuova energia sono quindi basate sull'idea di sfruttare nuove fonti di energia. Sono queste scoperte che meritano la nostra attenzione e sono l'obbiettivo principale di questo rapporto.

II. La Verifica delle Scoperte sull'Energia

La verifica dei dispositivi energetici è concettualmente lineare. Viene misurata l'energia in uscita dal dispositivo, l'ingresso apparente di energia viene misurato e le due quantità vengono paragonate. Se il dispositivo funziona come dichiarato, per esempio estraendo l'energia da una fonte inusuale e portandola in uscita, l'energia in uscita supererà quella misurata in entrata. Se il dispositivo non funziona come dichiarato, la prima legge della termodinamica richiede che l'energia in uscita, compresa ogni perdita tipo il calore, debba essere esattamente uguale a quella in ingresso.

Nel caso di input elettrico, la misurazione dell'ingresso di energia è relativamente diretta, particolarmente se l'ingresso è una corrente continua costante. Se l'ingresso ha variazioni temporali, potrebbe essere utile un sofisticato analizzatore di potenza per ottenere misurazioni più soddisfacenti. In caso di input meccanico, come un albero rotante, serve un dinamometro per misurare la coppia e la velocità angolare per misurare direttamente l'energia meccanica in ingresso.

Misurare l'energia in uscita è spesso più impegnativo. I dispositivi che producono un' uscita elettrica diretta possono essere gestiti coi metodi descritti sopra per le misure di energia in ingresso. I dispositivi che producono energia sotto forma di calore richiedono una qualche forma calorimetrica. La calorimetria è concettualmente semplice, ma in pratica serve un grande sforzo per ridurre gli errori, principalmente sistematici, a livelli accettabili. E' particolarmente difficile ottenere un livello di precisione migliore del 1% relativo. In confronto a un calorimetro con la precisione relativa del 1%, serve almeno uno sforzo di un ordine di grandezza in più per ottenere una precisione del 0.1% (5).

Quando indaghi le scoperte energetiche, sorge una situazione frustrante. Un singolo test negativo della scoperta non prova quasi niente. A prescindere dalle circostanze si può sempre dire che il test non è stato condotto in modo appropriato, per esempio non sono stati usati i giusti materiali, l'apparecchio non è stato assemblato correttamente o i pianeti non erano allineati in modo giusto. In senso stretto, sono richiesti un numero infinito di test per confutare una scoperta, mentre un unico e robusto test è sufficiente per provarla. Con questo chiaro in mente, la condizione ideale sotto la quale verificare una scoperta energetica è con la piena collaborazione del dichiarante e usando il suo apparato originale. Il test procede rapidamente e, in caso di risultato negativo, lo scopritore può assicurarsi, per quanto possibile, che le prove siano state eseguite correttamente. Se l'apparato originale non è disponibile, ne deve essere costruito uno nuovo. In questo caso, anche con la piena collaborazione del dichiarante, ci sarebbe più spazio per scuse, se il test dovesse risultare negativo. Se lo scopritore non collabora e l'apparato deve essere costruito sulla base di documenti e registrazioni, può essere provato ben poco se i test sono negativi.

III. Alcuni test su Scoperte di Energie Rivoluzionarie

Questa parte contiene il racconto di alcuni dei nostri test su scoperte energetiche rivoluzionarie. Come osservato sopra, il fatto che il risultato dei nostri test sia negativo non confuta queste dichiarazioni. Presentiamo questi casi principalmente per promuovere una miglior comprensione dei problemi che implicano simili test.

A. Dispositivi energetici del punto zero

La fisica quantistica prevede l'esistenza di un punto zero di campo elettromagnetico la cui densità energetica è così grande che molti fisici, incapaci di accettarla come fisicamente reale, indicano come virtuale. Altri accettano il campo di punto zero come una energia reale che circonda e pervade tutto quanto, lasciando la materia ordinaria come una schiuma trascurabile che galleggia in questo vasto mare di energia. Secondo  John A. Wheeler, “le particelle elementari rappresentano una saggia percentuale quasi ininfluente nelle locali condizioni violente che caratterizzano il vuoto” (6). Questo punto di vista ha portato a speculazioni molto forti sulla possibilità di utilizzare l'energia del punto zero. C'è una forza reale che può essere attribuita al campo del punto zero: la Forza di Casimir (7).

Confermata sperimentalmente (8), questa forza si manifesta quando vengo messe superfici conduttive molto ravvicinate, creando così una cavità che elimina certe modalità elettromagnetiche fra le lamine. Il risultato è uno squilibrio nella pressione di radiazione sui due lati (9), che produce una forza che spinge le lamine una contro l'altra. Alcuni fisici, compreso Robert Forward (10), hanno suggerito che la forza di Casimir fornisca uno strumento per estrarre energia dal campo di punto zero.

Julian Schwinger (11) ha fornito uno stimolo ulteriore suggerendo che l'energia rilasciata in sonoluminescenza fosse dovuta alle forze di Casimir che agiscono nella bolla che collassa. La nostra prima e più estesa campagna per estrarre energia dai campi del punto zero, è stato un sforzo di replicare le scoperte sull'energia dei cluster di carico di Ken Shoulder, o EV, come sono più comunemente conosciuti. Shoulder crede che almeno un EV si forma in ogni scintilla di scarico. Si suppone che gli EV contengano 109 elettroni ed esistano solo durante il transito fra catodo e anodo. Catodi molto appuntiti ed un tempo di viaggio molto rapido per la pulsazione di voltaggio applicata, favoriscono la formazione degli EV. Il collegamento con l'energia del punto zero viene dall'ipotesi che la compressione degli elettroni in un cluster di carico sia dovuto alle forze d'attrazione di Casimir che sovraccaricano quelle repulsive di Coulomb a distanza molto breve. Shoulder ha fatto un gran numero di sperimentazioni con gli EV, dichiarando, nel brevetto statunitense  5,018,180 (21 maggio 1991) di aver osservato più energia rilasciata da un EV di quella richiesta per produrre un EV. Abbiamo perseguito questa scoperta per anni e non siamo mai stati in grado di riprodurre i risultati di Shoulder.

Abbiamo sperimentato con numerosi allestimenti nel tentativo di osservare l'uscita di energia elettrica diretta che dichiarava Shoulder nel suo brevetto. Fallito quel tentativo, abbiamo tentato misure calorimetriche che sono state composte con difficoltà, a causa dei bassi livelli di energia coinvolti, la difficoltà di misurare precisamente l'ingresso di energia fornita da una scarica elettrica e la generale difficoltà di fare misure sensibili in un tale ambiente elettricamente disturbato. Nonostante questi problemi, alla fine siamo riusciti ad ottenere una precisione ed una affidabilità ragionevoli nelle nostre misurazioni calorimetriche degli EV, ed il risultato è stato negativo in modo deludente. L'ipotesi di Schwinger ci porta a dare una seria considerazione a diverse dichiarazioni riguardo all'energia basata sulla cavitazione. Il dispositivo Potapov, inventato da Yuri Potapov in Moldavia ne è un esempio. Il dispositivo Potapov consiste semplicemente in una camera di turbolenza attraverso la quale veniva vigorosamente pompata l'acqua per creare un vortice ed una cavitazione. Popatov dichiarava che il suo dispositivo impartiva all'acqua fino a 3 volte più energia termica di quella meccanica necessaria a pompare l'acqua al suo interno. In questo caso siamo stati in grado di avere un dispositivo di Potapov originale per i test ed abbiamo avuto una limitata collaborazione da Potapov stesso. Abbiamo costruito un lotto di sistemi di calorimetri nel quale il dispositivi avrebbe operato per un certo periodo di tempo per riscaldare l'acqua contenuta in una grande cisterna isolata. L'acqua veniva pompata dalla cisterna, attraverso il dispositivo, e tornava alla cisterna. La pompa era alimentata da un motore elettrico.

Per l'energia in ingresso abbiamo semplicemente misurato l'energia elettrica richiesta per alimentare il motore, usando un wattmetro trifase. Per l'energia in uscita abbiamo misurato l'aumento della temperatura dell'acqua ed usato il peso totale dell'acqua nella cisterna per calcolare l'energia termica rilasciata all'acqua. Al posto dell'efficienza del ~300% dichiarata da Potapov, abbiamo osservato solo un 80% come massimo. Come controllo, abbiamo anche misurato l'efficienza termica di una singola saracinesca inserita nel flusso al posto del dispositivo di Potapov. Il test è andato avanti per mesi mentre faticavamo a comunicare con Potatov. Pensava che stessimo utilizzando il suo dispositivo in modo inappropriato ed abbiamo fatto molte modifiche su sua richiesta. I risultati dei test sono rimasti negativi in modo uniforme.

Un altro dispositivo (che deve rimanere segreto a causa di un accordo di non divulgazione con lo sviluppatore) includeva un rotore motorizzato in una custodia stretta. L'acqua veniva forzata nelle aperture intorno al rotore, dove si supponeva si verificasse un'intensa cavitazione. Di questo dispositivo veniva dichiarato che impartisse il 50% in più di energia termica all'acqua che gli scorreva dentro rispetto all'energia meccanica richiesta per attivarlo. Abbiamo testato questo dispositivo usando una versione più grande dello stesso lotto di calorimetri descritti prima. In questo caso abbiamo costruito un dinamometro di supporto per misurare direttamente l'energia meccanica in entrata. Con un motore elettrico di 30 cavalli e la copiosa generazione di vapore dal dispositivo, questo è stato un esperimento davvero eccitante e a volte pericoloso. Tuttavia, le nostre misurazioni non hanno mai misurato nessun segno di eccesso di energia. Inoltre, paragonando l'energia meccanica in ingresso all'energia termica in uscita siamo stati in grado di ottenere un bilancio quasi perfetto nelle nostre misurazioni, tipicamente 99% +/- 1%. Siamo stati fortunati ad avere la collaborazione dello sviluppatore di questo dispositivo e, durante una visita alla nostra attrezzatura, abbiamo scoperto accidentalmente la fonte di gran parte delle sue letture anomale: un uso improprio del suo tester elettrico.

Una scoperta relativa è quella della sonofusione fatta principalmente da Roger Stringham (12). All'inizio, abbiamo investigato questa scoperta costruendo il nostro apparato senza nessuna operazione da parte di Stringham. L'apparato consiste in un trasduttore ultrasonico immerso in acqua pesante con un obbiettivo PD in prossimità. Secondo Stringham, nell'apparato viene prodotta più energia termica dell'energia acustica immessa nel trasduttore. Abbiamo usato un calorimetro a flusso d'acqua per misurare il l'energia termica in uscita ed abbiamo fatto un grande sforzo per imparare come misurare correttamente l'alta tensione, 20 kHz, e il fattore di bassa potenza elettrica in ingresso portata al trasduttore. Con nostra sorpresa, un oscilloscopio digitale che poteva moltiplicare voltaggio e corrente fra loro in tempo reale ed integrare la traccia di potenza, era in errore di almeno il 10% relativo. Un analizzatore di potenza di media qualità, le cui specifiche indicavano che avrebbe dovuto avere una precisione del 2%, è stato scoperto avere un errore del 20% relativo.

Infine, abbiamo scoperto che l'analizzatore Clacke-Hess 2330 sembra effettivamente avere la precisione specificata di +/- 0,2%. Abbiamo fatto un totale di 48 prove con i nostri apparati, 12 dei quali utilizzavano degli obbiettivi PD. Non abbiamo mai visto alcun segno di eccesso di calore. Dopo aver comunicato i nostri risultati a Stringham, siamo riusciti a visitare il suo laboratorio con una versione portatile del nostro calorimetro ed il nostro Clarke-Hess 2330. In altre parole, stavamo dando una possibilità di testare la sua dichiarazione usando il suo apparato e con la sua piena collaborazione. Siamo soltanto riusciti a dimostrare che le sue misurazioni della potenza di ingresso erano sbagliate e sottostimate rispetto alla reale potenza in ingresso. Era quella la causa dell'apparente eccesso di calore quel giorno del 1999. Oggi, Stringham sta studiando il fenomeno con apparati rivisti considerevolmente e sta dichiarando un eccesso di produzione ancora più alto. Non vediamo l'ora di esaminare ancora la sue scoperte.

Il collega della EarthTech Hal Puthoff (13) ha mostrato che lo stato fondamentale dell'atomo di idrogeno può essere spiegato come un equilibrio dinamico fra energia persa dall'elettrone a causa della radiazione di accelerazione e l'energia assorbita dal campo di punto zero. Il fatto che lo spazio fra le lamine di Casimir è una regione dove il campo di punto zero è ridotto in densità di energia ha portato alla speculazione che l'idrogeno potrebbe perdere un po' della sua energia di stato fondamentale se messo in tale cavità. Se fosse così, quel rilascio di energia significherebbe che la conversione e la circolazione dell'energia del punto zero dell'idrogeno in ingresso e in uscita di una cavità di Casimir potrebbe produrre una estrazione continua di energia dal campo di energia di punto zero. Abbiamo progettato e costruito diversi esperimenti per indagare questa ipotesi, ma ancora senza successo. Gran parte di essi erano tentativi di individuare energia termica rilasciata dall'idrogeno che scorre attraverso una qualche forma di cavità di Casimir. Abbiamo per prima cosa cercato di costruire cavità da piani ottici di precisione. Per lo stato fondamentale dell'idrogeno molecolare, lo spazio ottimale della cavità è di circa un micrometro. Abbiamo monitorato con cura la temperatura del gas in ingresso e in uscita della cavità cercando segni di riscaldamento dovuti al rilascio di energia di stato fondamentale. Abbiamo effettivamente osservato un piccolo aumento di temperatura in questo esperimento, ma che è poi risultato essere dovuto solo all'effetto Joule-Thompson che, per l'idrogeno, si manifesta con un riscaldamento del gas nel momento in cui scorre nel restringimento.

Abbiamo anche provato ad usare metalli finemente polverizzati come Platino e Palladio per creare un fitto labirinto di passaggi di scala di Casimir. Questi esperimenti tendevano a produrre un'eccitante esplosione iniziale di calore quando il flusso di H2 veniva innescato. Ma l'esplosione svaniva sempre dopo un minuto o due e non poteva essere prontamente ripetuta. Finalmente abbiamo fatto risalire questo alla combustione di H2 + O2 catalizzata dal metallo finemente polverizzato. Non era prontamente ripetibile perché l'apparato si era quasi sigillato. Solo dopo che l'apparato è stato lasciato a riposo durante la notte o è stato smontato, c'era sufficiente O2 presente per un'altra esplosione di calore. In un diverso approccio nel testare questa ipotesi, abbiamo messo molecole di idrogeno in una cavità di Casimir ed usato uno spettroscopio di assorbimento per cercare uno spostamento nell'energia di stato fondamentale. Abbiamo fatto questo esperimento al Synchrotron Radiation Center dell'Università del Wisconsin-Madison. Seguendo i passi del pioniere della spettroscopia molecolare Gerhard Herzberg (14), abbiamo usato una radiazione ultravioletta estrema per sondare l'energia di dissociazione delle molecole di H2 in una cavita di Casimir appropriata. Abbiamo presupposto che una depressione dello stato fondamentale dell'energia producesse un corrispondente aumento nell'energia di dissociazione.

E' stato messo molto impegno nell'apparato per questo esperimento ed abbiamo incontrato grossi problemi che ci hanno costretto a ricostruire parte dell'esperimento mentre eravamo al laboratorio della Sychrotron. Sfortunatamente, non abbiamo trovato prove dello spostamente di stato fondamentale, risultato che abbiamo presentato alla
International Conference on Squeezed States and Uncertainty Relations (ICSSUR 2001), all'Università di Boston. Come sempre, la possibilità che tale spostamento dello stato fondamentale possa accadere rimane, ma questo particolare esperimento non lo ha rilevato. Un ulteriore sforzo su questa linea è stato pianificato da un consorzio di ricercatori (15).

B. Dispositivi Elettromagnetici

Diverse scoperte energetiche sono state dichiarate negli ultimi 150 anni. Alcune di queste non sono altro che la continuazione delle ricerca del moto perpetuo, ma con magneti e sinusoidi al posto dei pesi e delle leve dei vecchi dispositivi. Altri, in particolare le scoperte più recenti, non sono così facili da respingere e meritano di essere studiate. Un dispositivo relativamente semplice chiamato Motionless Electromagnetic Generator – MEG – (Generatore Elettromagnetico senza Moto) (brevetto statunitense #6,362,718 del 26 marzo 2002) è stato largamente pubblicizzato su Internet. Abbiamo costruito un nostro MEG usando i dettagliati schemi di costruzione di un laboratorio indipendente che ha riportato di aver replicato con successo i risultati di eccesso di potenza. Anche i risultati iniziali con il nostro MEG mostravano apparentemente un eccesso di potenza, ma ci siamo resi conto ben presto del perché. Il MEG opera ad alte frequenza audio e produce diverse centinaia di volt e pochi milliampere ad una resistenza di carico.

Questa corrente è stata misurata usando un resistore 'current-viewing' di 10 ohm in serie con il resistore di carico. Con soli pochi milliampere di corrente che passa in questo resistore, il voltaggio sviluppato è di sole poche decine di millivolt. A queste frequenze è quasi impossibile misurare con precisione questo basso voltaggio in intima prossimità col voltaggio di uscita, che è di 4 ordini di grandezza superiore. L'accoppiamento capacitivo fra il voltmetro o portata innalza significativamente i voltaggi osservati attraverso il resistore current-viewing, risultando in una sovrastima della potenza in uscita. A sostenere questa conclusione c'era la mancanza di calore nel resistore di carico che avrebbe dovuto esserci, essendo stata corretta l'apparente potenza in uscita. Quando regolavamo il resistore curren-viewing a 1000 ohm, che non influiva significativamente sull'impedenza di carico, l'apparente eccesso di potenza scompariva.

L'essenza di un altro caso, ancora coperto da un accordo di non divulgazione, può essere presentato come un buon esempio di un assioma che stiamo arrivando ad abbracciare: il fatto che i tuoi strumenti costino un sacco di soldi non garantisce che i loro risultati siano precisi. A semplice dispositivo è stato alimentato da una corrente alternata a 60Hz. L'uscita di quel dispositivo era sempre in corrente alternata a 60Hz ma ad un voltaggio diverso. Abbiamo impiegato il nostro analizzatore di potenza Clarke-Hess 2330 per le misurazioni di potenza ingresso e in uscita ed abbiamo ottenuto una normalissima efficienza del ~90% del dispositivo. Tuttavia, lo scopritore usava un oscilloscopio a banda larga di grande qualità con estese capacità matematiche in forma di onda (inclòuo il calcolo della potenza) ed un sofisticato sonda a serraggio di corrente AC/DC. Sorprendentemente, questa moderna collezione di equipaggiamenti da 30.000 dollari, mentre era capace di una precisa analisi della potenza in una grande varietà di forme d'onda e su un'impressionante gamma di frequenze, ha commesso significativi errori nella misurazione della potenza in quei segnali a 60Hz.

C. Fusione Fredda

Nel marzo del 1989, Martin Fleischmann e Stanley Pons dell'Università dello Utah, hanno annunciato che erano riuscito a realizzare una fusione D-D in una cella elettrochimica prossima alla temperatura ambiente.

In confronto alle condizioni normali richieste per questa reazione, questa scoperta è stata giustamente chiamata “fusione fredda”. L'annuncio della fusione fredda ha generati un forte interesse, perché prometteva di risolvere gran parte dei nostri problemi energetici, se non tutti, qui sulla Terra. Il combustibile è abbondante e i prodotti di scarto relativamente benigni. Tuttavia, fallimenti diffusi nel replicare l'esperimento hanno presto dato il risultato di rifiutare la fusione fredda da parte comunità scientifica tradizionale. Nonostante questo rifiuto, numerosi scienziati continuano a studiare la fusione fredda. Centinaia di saggi che riportano risultati positivi sono stati pubblicati ed ogni due anni vengono tenute conferenze internazionali, Tuttavia, ad oggi, non esiste nessun esperimento dimostrativo della fusione fredda. Questo perché i fenomeni della fusione fredda sono estremamente difficili da riprodurre. Questa situazione ostacola grandemente la ricerca sulla fusione fredda, perché rende la normale ricerca empirica quasi impossibile. L'elemento principale della fusione fredda è l'eccesso di calore, che significa che le cellule elettrochimiche producono più potenza termica di quella elettrica usata per stimolarla. Quindi, per testare gli esperimenti di fusione fredda, spesso serve un calorimetro.

Nel nostro laboratorio abbiamo fatto un grande sforzo nello sviluppo di calorimetri adatti per esperimenti di fusione fredda. Durante gli anni, abbiamo avuto l'opportunità di verificare un numero relativamente piccolo di celle a fusione fredda, alcune costruite da noi stessi ed alcune portate al nostro laboratorio da altri ricercatori che avevano visto positi segni di eccesso di calore nei propri laboratori. Nessuno di questi esperimenti di fusione fredda ha mostrato una prova convincente di eccesso di calore nei nostri calorimetri. Non possiamo dire di non aver mai visto nessun eccesso di calore nel nostro laboratorio, perché tutti i calorimetri sbagliano di qualcosa e, inevitabilmente, quello sbaglio a volte va in una direzione positiva e sembra proprio una vero eccesso di calore di basso livello. Quando ciò accade, ci sforziamo di verificare la calibrazione del calorimetro più rapidamente e più a fondo possibile. Questo comportamento stuzzicante significa o che la cella produce bassi livelli di eccesso di calore o che il calorimetro sta semplicemente vagando su e giù in una sfortunata sincronia con le nostre osservazioni.

Nel nostro laboratorio, non siamo nuovi nel fare misurazioni. Abbiamo circa 70 anni complessivi di esperienza nel progettare, costruire e far funzionare sitemi di misura, manometri e strumenti analitici. In aggiunta, abbiamo costruito almeno una dozzina di sistemi calorimetrici durante gli ultimi 15 anni nello nostro tentativo di identificare nuove fonti energetiche. Da questa ampia prospettiva sembra sicuro dire che la calorimetria eccelle nel fornire buoni mezzi per riprodurre e alimetare sottili errori sistematici. Inoltre, abbiamo trovato quasi impossibile anticipare le cause di questi errori. La loro chiarificazione di solito avviene solo dopo aver costruito lo strumento, dopo averlo testato a lungo e lottato per giorni per comprendere in cattivo funzionamento. Il culmine dei nostri sforzi per costruire un calorimetro affidabile per la sperimentazione sulla fusione fredda è uno strumento che chiamiamo MOAC – Mother Of All Calorimeters (Madre Di Tutti i Calorimetri). Questo strumento opera su un principio semplice e fondamentale. L'acqua corrente viene usata per estrarre calore dalla cella. Viene misurata la portata e l'aumento di temperatura.

Il prodotto dell'aumento della temperatura, della portata e del calore specifico dell'acqua dà la potenza termica estratta dalla cella. Nonostante il suo semplice concetto, MOAC non è uno strumento semplice. Due diversi sistemi di acquisizione dei dati computerizzati, monitorizzano 45 parametri, comprese 22 temperature. 14 uscite analogiche, guidate da algoritmi di retroazione proporzionali derivativi, controllano vari parametri cruciali. La cella e lo scambiatore di calore sono posizionati in un ambiente le cui pareti sono rese quasi perfettamente isolate con un sistema che riscalda la superficie esterna di ognuno dei sei pannelli, di modo che le sue temperature corrispondano quelle della superficie interna. Questo isolamento attivo assicura che virtualmente tutto il calore dissipato dalla cella lascia la camera attraverso l'acqua che scorre. Tre regolatori Peltier a cascata controllano la temperatura dell'acqua in entrata nello scambiatore con sensibilità +/- o,ooo3°. Una pompa volumetrica spinta da un motore sincrono alimentato da un oscillatore a cristallo produce un flusso estremamente stabile di circa 2,5 gm/s. Un misuratore di portata costituito dal un lotto di sistemi di pesatura automatica, misura il tasso di flusso periodicamente e riporta normalmente una deviazione standard di soli +/- 0.0002 gm/s (per esempio 0,01 relativo). Un grande involucro ben isolato alloggia l'intero sistema. L'aria circola sull'apparato del calorimetro e quindi viene canalizzata verso un condizionatore d'aria Peltier, dove la sua temperatura viene regolata a +/- 0,001° C prima di rientrare nell'alloggiamento.

Il MOAC è stato progettato per ottenere +/- 0,1% di precisione relativa. Alla di potenza di ingresso di 10 watt, equivale a +/- 0,01 watt. In una giornata buona, se ben calibrato, quel livello di precisione viene effettivamente raggiunto. Un mese dopo la calibrazione, il sistema tipicamente sbaglia di un valore fino a 0,03 watt. Crediamo che questo errore abbia origine principalmente dai termistori usati per misurare la temperatura dell'acqua in ingresso ed in uscita. Nonostante questo piccolo problema, crediamo che il MOAC è uno dei migliori calorimetri disponibili oggi per la ricerca sulla fusione fredda. Lo spazio disponibile per la cella è relativamente ampio (circa 10 cm x 25 cm x 25 cm). La cella è alloggiata in un ambiente di aria mescolata dove non è termicamente agganciata ad una temperatura specifica. Il MOAC esibisce un eccellente modello di versatilità, producendo esattamente le stesse misure a prescindere da grandezza, forma o posizionamento della sorgente di calore. Siamo continuamente impegnati a mantenere il MOAC nelle migliori condizioni operative. Nell'interesse del progresso scientifico, abbiamo fatto un'offerta permanente di test gratuito delle celle di fusione fredda promettenti col MOAC.

IV. Conclusione

Analizzare le scoperte rivoluzionarie energetiche è semplice come concetto ma spesso difficile in pratica. Si fa in maniera più efficace con la piena cooperazione dello scopritore. Gli errori sistematici sono comuni. E' richiesta una considerevole diligenza per assicurarsi che le tecniche di misurazione impiegate siano accettabilmente libere da tali problemi. Speriamo che questo breve resoconto delle nostre esperienze sarà di una qualche utilità ad altri ricercatori.

Riferimenti

1 Dircks, Henry, Perpetuum Mobile, E. & F.N. Spon, 1870, p.1.

2 Heaton, Mrs. Charles W., Leonardo Da Vinci e il suo lavoro, Kessinger Publishing, 2004, pp. 154-155.

3 Dircks, Henry, Perpetuum Mobile, E. & F.N. Spon, 1870, p.354.

4 Un tipico analazzatore di potenza elettrica campiona il voltaggio e la corrente immessa in un dispositivo rapidamente e simultaneamente. Ogni coppia di campioni è moltiplicata insieme per ottenere una misura della potenza istantanea che passa nel dispositivo. Questi valori vengono poi integrati per ottenere l'energia elettrica consumati dal dispositivo.

5 McCullough & Scott, “Experimental Thermodynamics, Calorimetry of non-reacting systems”, p.9, Vol. 1, 1968,

6 Wheeler, John A., “Geometrodynamics”, Academic Press (1962).

7 H. B. G. Casimir, “On the attraction between two perfectly conducting plates,” Proc. Kon. Ned. Akad. Wetensch. 51, 793-796
(1948)

8 Harris, B.W., Chen, F., Mohideen, U., “Precision measurement of the Casimir force using gold surfaces,” Physical Review A,
vol 62 (2000). P.052109/1-5.

9 Milonni, P. W., Cook, R. J., and Goggin, M. E., "Radiation pressure from the vacuum: Physical interpretation of the Casimir
force," Physical Review A, vol. 38, p. 1621 (1988)

10 Forward, Robert L., “Extracting electrical energy form the vacuum by cohesion of charged foliated conductors,” Physical
Review B, vol 30, numero 4, 15AUG1984, p.1700.

11 Schwinger, Julian, “Casimir light: The souce”, Proc. Natl. Acad. Sci. USA, Vol 90, pp.2105-2106, marzo 1993

12 R. S. Stringham, D. R. George, F. L. Tanzella, M.Williams, “Cavitation-Induced Heat in Deuterated Metals,” EPRI Report TR-
108474, marzo 1998.

13 Puthoff, H.E.,“Ground State of Hydrogen as a Zero-Point-Fluctuation-Determined State,” Physical Review D, vol. 35, p.3266
(1987)

14 Herzberg, G., “The dissociation energy of the hydrogen molecule”, Journal of Molecular Spectroscopy, vol 33, pp. 147-168
(1970).

15 E. W. Davis, et al. (2006), "Review of experimental concepts for studying the quantum vacuum field," Proc. of the STAIF-
2006: 3rd Symposium on New Frontiers and Future Concepts, AIP Conf. Proc., vol. 813, ed. M. S. El-Genk, AIP Press, pp.
1390-1401.

mercoledì 19 settembre 2012

La Parabola del Lago

Da “The Oil Crash”. Traduzione di Massimiliano Rupalti


Immagine del Lago delle Meraviglie, Denali, tratta da Wikipedia: http://es.wikipedia.org

Di Antonio Turiel


Cari lettori,

nel mio ultimo post parlavo del ruolo della corruzione e dello spreco (entrambi molto collegati) e la mia conclusione è stata che non sono la causa della crisi (se vi interessano le argomentazioni, leggete il post). Nonostante abbia ripetuto tre volte che la corruzione è immorale ed ingiusta, e che è ovviamente un problema, il mio post ha provocato reazioni furiose, le più moderate delle quali sono visibili nella sezione dei commenti del blog (se volte vederne altri più blandi potete dare un'occhiata ai commenti su Manéame). E' curioso verificare come molta gente abbia una tale reazione emotiva e viscerale e che non sia in grado di capire ciò che c'è scritto se non si ripete più volte che la corruzione è sconveniente e cattiva, per non parlare del fatto che lo scritto è di taglio tecnico e si adatta meglio ad una discussione non ripetitiva. Peggio ancora, credo che se anche si ripetesse mille volte “la corruzione è sbagliata ed è un problema”, nel momento in cui si dicesse che non è l'origine di tutti i mali si verrebbe vilipesi. Soprattutto ora che molti gruppi agitano lo spauracchio della corruzione per ottenere un cambiamento non nel sistema economico (necessario, visto che quello attuale è impraticabile) ma soltanto di quello politico. E il cambiamento politico è probabilmente necessario, ma solo se accompagnato dal cambiamento economico, visto che senza quello qualsiasi proposta fallirà. Il mio timore è che, in realtà, nell'ansia di cambiare si cambi unicamente ciò che è subordinato al sistema economico e nel processo si arrivi a un sistema inefficiente e corrotto più o meno allo stesso modo, ma più autoritario.

Ma, è vero, lo sto facendo di nuovo: parlo troppo tecnico. E giustamente quello che voglio è avere un altro approccio per spiegare la relazione fra la corruzione e la crisi e del perché la prima, nonostante sia un grave problema, non è la causa della seconda. Userò una parabola; se in quel di Galilea ha avuto un buon effetto, chissà che non aiuti anche me. Andiamoci.

La Parabola del Lago

C'era una volta un piccolo villaggio in riva ad un bel lago, un grande lago di acqua cristallina che dava vita e sostentamento alle persone del luogo. Con le acque del lago si annaffiavano gli orti, si dava da bere agli animali e si dissetavano loro stessi. Le acque del lago servivano per lavare i panni e le stoviglie. Servivano anche a raffreddare il ferro del fabbro, scioglievano i colori del tintore, plasmavano l'impasto del pane e, insomma, venivano impiegate in molti altri modi nella piccola economia locale. Grazie alla qualità ed al facile accesso alle acque del lago, la comunità aveva prosperato dal giorno in cui si era insediata su quella riva. 

Visto che l'acqua del lago era la vita ed il sostentamento di quel popolo, erano state imposte delle regole molto ristrette per preservarne la qualità. Non era permesso riversare acque di scarico dell'attività domestica o artigianale direttamente nel lago, ma dovevano passare attraverso delle fosse settiche o essere usate per l'irrigazione, a seconda dei casi. Questa era la regola generale, ma di tanto in tanto alcuni la ignoravano e gettavano i loro rifiuti nel lago in maniera più o meno dissimulata. Non c'è bisogno di dire che quando si prendevano i contravventori le multe che venivano imposte erano molto consistenti, anche se non tutti erano uguali di fronte a questa legge. Era noto e conosciuto che il mercante di bestiame (il più grande della regione) ed il tessitore (che commerciava anche con altri paesi) avevano installato scarichi separati sotto ai loro stabilimenti, che portavano i loro scarichi lungo il letto del lago, proprio in mezzo alle sue acque. Ma, siccome davano lavoro a metà paese, nessuno aveva troppa voglia di agitare le acque. Si sospettava anche che il sindaco ed altri uomini importanti ne approfittavano per scaricare parte delle proprie acque domestiche direttamente nel lago. Nessuno li aveva visti farlo, ma si aveva l'impressione che per loro l'onere di interrare e aver cura delle fosse settiche di casa propria fosse considerevolmente minore che per gli altri. Il sindaco si è sempre vantato di praticare una migliore gestione dei rifiuti a casa sua ed era solito rimarcarlo, in assenza di donne, con commenti escatologici sullo sfruttamento degli alimenti che gli altri uomini di solito accoglievano con risate virili e una segreta invidia - “Questo si che se ne intende”, si davano gomitate facendo l'occhiolino, visto che nessuno credeva nella sua “migliore gestione dei rifiuti” e a tutti sarebbe piaciuto fare quello che faceva il sindaco, ma nessuno osava. A volte per quello, in cerca di questi privilegi, i più sfrontati del paese optavano di tanto in tanto a presentarsi come sindaci, anche se il sindaco aveva una tale trama di amicizie e favori dovuti (specialmente dal commerciante di bestiame e dal tessitore) che era impossibile batterlo. 

Un'estate, le acque del lago si abbassarono più del solito. Questo cominciò a creare problemi alla gran parte degli ortolani e degli allevatori. Il venditore di bestiame ed il tessitore se la accaparrarono perché non venisse loro a mancare. Il sindaco fece una legge che dava loro la precedenza alle acque perché, alla fine dei conti, essi davano lavoro alla maggior parte della gente in paese e, se necessario, l'acqua si poteva prendere negli altri paesi. Solo che era talmente caro e lento, che nella pratica i contadini non se lo potevano permettere e cominciarono a fare la fame. I vecchi del posto dicevano di sopportare, che c'erano già state siccità simili in passato e che le acque sarebbero tornate a salire. Ma arrivò l'autunno, l'inverno e la primavera e le acque del lago non avevano recuperato granché. Così passò un anno, poi un altro e fra gli abitanti di quel paese (che aveva perso alcuni abitanti) si cominciava a diffondere lo scoraggiamento. 

Un giorno d'estate, successe che si cominciò a sentire puzza nel paese. Una puzza insopportabile, davvero. Una puzza fetida ed umida. Subito qualcuno si accorse di cosa si trattava. Gli scarichi delle industrie del paese ora erano visibili ed il loro miasmi erano insopportabili. Tutti erano d'accordo in paese che questo non andava bene e il sindaco impose multe severe agli industriali. Tuttavia, con la scusa che queste imprese erano vitali per il paese, il comune finanziò le opere per prolungare l'estensione delle tubazioni. Si disse che le imprese non si potevano permettere i costi per la depurazione delle proprie acque di scarico a terra e che alla fine dei conti il lago era grande ed era meglio, date le circostanze, continuare a scaricare nel lago, solo un po' più lontano. Molta gente rimase insoddisfatta da questa spiegazione e ancora di più dalla soluzione proposta, ma nessuno osava contraddire gli ordini del sindaco, quindi si fece come diceva lui. 

Ma l'acqua del lago continuava a scendere anno dopo anno ed il problema degli scarichi si fece sempre più urgente. Per quanto si allungassero le tubazioni, non era mai abbastanza e più che altro quelle opere erano costose, impiegavano molti uomini per molti giorni e legname (che cominciava a scarseggiare per la mancanza d'acqua). E poi, fare manutenzione ai molti metri di condutture era sempre più gravoso. Anche se la cosa peggiore fu quando si trovarono altre piccole tubazioni, molto ben camuffate, che portavano senza dubbio alle case di alcuni dei consiglieri. Il sindaco licenziò i suoi consiglieri con vergogna, anche se c'era chi cominciava a sospettare che una di queste tubazioni giungeva in realtà dalla casa del sindaco. Ad alimentare questa sensazione si aggiunse il fatto che gli operai che il comune mandò per chiudere quegli scarichi fossero tutti lavoratori della fabbrica di tessuti, e che tardarono molti giorni a terminare l'opera che durò molto di più quanto, secondo logica, avrebbe dovuto. Di fatto la gente cominciò a rendersi conto che a volte il sindaco ordinava di fare opere che non avevano molto senso: un secondo porto a pochi metri dal primo, un nuovo granaio quando il primo non veniva riempito... La gente cominciava a mormorare. C'era chi diceva che il sindaco si riempiva il portafogli chiedendo la tangente al falegname, al mercante di bestiame, al tessitore...

Quando si manifestarono i primi casi di dissenteria, nel popolo crebbe l'ira. Non era solo il fatto che mancasse l'acqua, ma che era di qualità sempre peggiore. La gente che era rimasta ancora in paese era arrivata al limite. Uno degli eterni aspiranti a sindaco intravide la sua occasione e cavalcò il malessere a proprio beneficio. Fece un suo programma di cambiamenti basato sull'osservazione di quello che era ovvio che non funzionasse: sempre meno acqua e di peggiore qualità, sempre meno cibo... e dava la responsabilità al sindaco di tutti i mali. Ci fu un'esplosione di rivolta rapidamente soffocata, poi un'altra e infine si forzarono nuove elezioni che l'eterno aspirante, alla fine, vinse.  Il nuovo sindaco prese immediatamente una serie di misure per contrastare la “gestione pessima e corrotta” del precedente sindaco, e cominciò giustiziando il suo predecessore e giustiziando o incarcerando (in modo un po' arbitrario) i precedenti consiglieri, le loro famiglie , i loro amici e i loro parenti. Alla fine, in un modo o nell'altro, metà del paese finì al campo santo o costretta a lavorare per il nuovo sindaco. E diciamo sindaco e non comune, perché nella serie di misure anticorruzione c'era quella di non nominare più consiglieri, tutto il potere veniva gestito da lui. 

Con il nuovo sindaco le cose non andavano meglio riguardo all'acqua, ma furono di molto peggiori  sotto un altro aspetto: la paura. Un giorno un vicino disse che dall'abitazione del sindaco (che era la stessa di quello precedente, visto che egli si trasferì immediatamente lì) continuava ad uscire acqua sporca verso il lago. Di conseguenza il sindaco lo fece frustare e lo condannò ai lavori forzati a vita per diffamazione. Un altro vicino denunciò che il sindaco avesse preso accordi col commerciante di bestiame e col tessitore prima ancora delle prime rivolte, in modo tale che egli avrebbe rispettato i loro affari in cambio della loro neutralità, se non del loro appoggio. Questo vicino scomparve una notte e non si seppe più nulla di lui. Ma è certo che, mentre il resto della gente stava sempre peggio, il commerciante di bestiame ed il tessitore stavano come sempre... finché passarono alcuni anni ed i loro affari cominciarono ad essere gravemente colpiti dalla scarsità di acqua e dalla sua scarsa qualità. Il lago si era quasi seccato e la popolazione del paese era ormai solo la decima parte di quello che era stata. E non c'è da meravigliarsi: in assenza d'acqua, in modo meno dissimulato, il commerciante di bestiame ed il tessitore stavano schiavizzando la gente, con la collaborazione del sindaco, che continuava ad accusare i suoi paesani di delitti sempre più surreali per costringerli ai lavori forzati a vita, se non fossero già scappati da quell'incubo.  

Un giorno arrivò in paese un geografo, un uomo studioso e molto navigato. Aveva sentito della prosperità di un tempo di quel paese e si sorprese di vedere il paesaccio sporco, sordido e decadente dove era riuscito a trovare solo una locanda per alloggiare. Erano passati solo 10 anni dal momento di maggior prosperità, ma il paese ricco di quei tempi sembrava un villaggio miserabile. Il lago, la cui riva si trovava a pochi metri dal paese, era retrocesso ora di quasi un chilometro. Il geografo chiese insistentemente al locandiere, uno dei pochi uomini liberi che rimanevano grazie al fatto che poteva pagare le onerose tasse che aveva istituito il sindaco, ma questi aveva paura delle rappresaglie. Solo l'ultimo giorno, quando il geografo stava già partendo, il locandiere si aprì un po' con lui.

- “Alla fine” - disse il locandiere - “non so dove andremo a finire. L'inquinamento dell'acqua non è concluso e finirà per ammazzarci tutti”

Il geografo si affrettò a bere la sua birra – il locandiere gli aveva raccomandato di non bere l'acqua locale (“le farà male se non vi è abituato”) - e guardò il locandiere negli occhi.

- “In realtà il vero problema è un altro. Non è che l'inquinamento dell'acqua non sia un problema, avrebbero dovuto rispettare sempre la qualità dell'acqua come un bene prezioso” - disse il geografo guardando con severità il locandiere, finché questi non abbassò la testa dalla vergogna - “ma non è per questo che siete giunti a questa situazione di degenerazione. Se si fossero mantenuti i livelli di inquinamento e l'acqua non si fosse abbassata, il lago avrebbe potuto assimilare tutta la sporcizia, come ha sempre fatto. Signore, se i suoi livelli di inquinamento fossero cresciuti senza controllo, naturalmente questo avrebbe causato una crisi come quella attuale, ma risulta che non sia questo il caso. No. Il suo vero problema è che il livello dell'acqua è sceso in continuazione senza controllo”.

- “Ma, questo è qualcosa che è venuto da sé, senza che noi facessimo niente. Che potevamo fare per evitarlo? Come possiamo far cambiare parere alla Natura testarda se non vuol piovere abbastanza?” rispose il locandiere. 

- “Non è vero. Conosco bene la pluviometria di questa zona ed è stata costante durante l'ultimo secolo. Temperature simili, stessi regimi di vento... No, la natura non c'entra niente qui” disse il geografo, e continuò.

- “Guardi, non è vero che voi non avete fatto niente. Voi avete preso l'acqua dal lago” - il locandiere lo guardava incredulo - “ o meglio avete lasciato che la prendessero. Quando avevate piccoli prelievi e interravate l'acqua sporca nei pozzi neri, questa veniva filtrata dal suolo e tornava alla falda freatica – l'acqua che si trova nel sottosuolo, voglio dire – e da lì al lago. Anche se veniva sversata acqua sporca nel lago, le alghe degradavano questi rifiuti e l'acqua tornava ad integrarsi nel lago. Ma voi avete lasciato andare l'acqua, con tutti quei grandi prelievi che si alimentavano dell'acqua di qui: tutte queste vacche che portate ad uccidere lontano, queste colture che vengono vendute a città lontane, il legno che commerciate, i tessuti che vendete... Quando siete passati allo sfruttamento massivo che comportavano i prodotti scambiati lontano da qui, l'acqua contenuta in tutte queste materie non è tornata nel lago e questo si è progressivamente asciugato...” 

- “E adesso?” - disse il locandiere.

- “E adesso” - disse il geografo alzandosi e prendendo il suo cappello - “tutto dipende da quello che decidete. Come sempre”.  

Se qualcuno non lo avesse ancora capito: il livello dell'acqua del lago rappresenta la nostra disponibilità di risorse e la merda sul fondo rappresenta la corruzione. E vediamo se adesso...

Saluti.
AMT






martedì 18 settembre 2012

Risucchiare l'Atmosfera

Di Albert Bates, da “The Great Change” del 27 luglio 2012. Traduzione di Massimiliano Rupalti

“La mia contestazione rispetto alle “soluzioni” totali viene dai miei viaggi per il paese durante i quali parlo nei campus dei college e cose simili. C'è un gran clamore per le “soluzioni”. L'idea è che se non sei abbastanza ottimista, dovresti tacere. Ma ci sono dei sottintesi a tutte queste cose. Il sottinteso a questo particolare meme è: “Dacci le soluzioni che ci permettano di continuare con le nostre cose come abbiamo fatto finora, solo con altri mezzi”. Non volgiono ascoltare altre modalità. Voglio continuare a guidare tutte le auto, solo in modo diverso. Sapete, tipo auto ibride elettriche, o auto elettriche o auto che vanno a secrezioni di alghe. Ma non afferrano il fatto che quello stile di vita è finito. I mandati della realtà ci dicono qualcosa di molto diverso. Ci dicono che dobbiamo abitare il paesaggio e muoverci su di esso in modo molto diverso in futuro”


                                            — James Howard Kunstler, su Rolling Stone del 12 luglio 2012

Di Albert Bates



Gli scienziati che si attaccano ai fili d'erba della Geo-ingegneria per conservare una tecnotopia quasi umana nel post-Antropocene hanno proposto un sacco di cattive idee, ma, occasionalmente, esce fuori qualcosa che potrebbe concettualmente funzionare. Quelle che si trovano nella seconda categoria dovrebbero essere messe alla prova. Daremo uno sguardo più ravvicinato ad una di queste, ma prima un breve e rapido retroterra.


Nel 1989, mentre stavamo correggendo le bozze e disegnando le illustrazioni per portare a termine la nostra pubblicazione pianificata per il gennaio 1990 di “Clima in Crisi: l'Effetto Serra e cosa possiamo fare noi”, due nuovi libri sono arrivati sulla nostra scrivania e sembravano confermare l'importanza di quello che stavamo scrivendo. Erano “La fine della Natura” di Bill McKibben e “Riscaldamento Globale” di Steven Schneider. Il primo lo abbiamo liquidato perché sembrava troppo prosaico e non eravamo d'accordo sulla premessa – la natura non sarebbe scomparsa, anche se gli esseri umani avrebbero potuto scomparire.

Il secondo ci ha dato più preoccupazione perché, come Clima in Crisi, esponeva la scienza in modo che la persona media potesse leggerla facilmente e comprenderla, e raccontava una storia di scoperte scientifiche, in una sequenza non dissimile dalla nostra, dalle carote di ghiaccio alle lampade a basso consumo.

Col sennò di poi, dopo 31 anni, dobbiamo dire che dobbiamo al Sig. McKibben delle scuse – aveva ragione, la natura sta davvero morendo. Gran parte di essa è già morta. Il nostro approccio, come quello di Schneider, era troppo cauto, troppo prudente e troppo timido. Proponevamo che i “Dividendi di Pace” della fine della Guerra Fredda fossero usati per rifare un motore economico pulito e verde dello sviluppo sostenibile, un futuro alimentato dal Sole. Riguardarlo ora sembra risibile: un'utopia tecno-feticista. Nel 1989 non potevamo in realtà affrontare il peggio – lo Scenario Venere – era troppo orribile. Lo abbiamo descritto, ma siamo passati rapidamente oltre alle lampade a basso consumo e alle applicazioni delle Stelle Energetiche.

Nel suo recente post su Rolling Stone, McKibben ha fatto a pezzi diverse scelte di gruppi ambientalisti del tardo ventesimo secolo, sebbene abbia riconosciuto che i tentativi debbano essere fatti per dimostrare che erano sbagliati:


“Questa ammissione di fallimento significa che sappiamo molto su quali strategie non funzionano. I gruppi verdi, per esempio, hanno passato molto tempo provando a cambiare gli stili di vita individuali: la proverbiale lampadina a basso consumo è stata installata da milioni di persone, ma così c'è una nuova generazione di televisori succhia energia a schermo piatto.

Molti di noi sono fondamentalmente ambivalenti nel diventare verdi: ci piacciono i voli economici per posti caldi e non vi rinunciamo certamente se qualcun altro li prende ancora. Siccome tutti noi siamo in qualche modo i beneficiari dei combustibili fossili a buon mercato, affrontare il cambiamento climatico è stato come provare a costruire un movimento contro sé stessi. E' come se il movimento per i diritti dei gay dovesse essere costruito completamente da dei predicatori evangelici, oppure il movimento contro la schiavitù dagli schiavisti.”



Ora siamo in completo accordo con lui su questo punto. Le soluzioni tecnologiche devono essere viste per quello che sono: desideri nostalgici di un futurismo disneyano estinto. Energia torica, aerolinee a biocombustibili, voli della Galaxy Virgin per la Luna e città nel deserto racchiuse in in bio-cupole, sono tutti miseri attaccamenti al sottile ramoscello di quello-che-poteva-essere, mentre precipitiamo dalla scogliera in un infernale post-Antropocene. 

Il nostro ultimo libro, La soluzione del Biochar: l'agricoltura al carbonio e il cambiamento climatico, proponeva un realistico ed ancora fattibile fine corsa ai politici ed ai banchieri andando diritti al lavoro dei contadini e dei proprietari di fattorie per fermare i deserti. La Soluzione del Biochar è geo-ingegneria mascherata da coltivazione biologica. Racchiude due bisogni umani fondamentali – cibo ed energia – e fornisce il primo in modo molto più affidabile nel panorama cangiante del ventunesimo secolo, estraendo il secondo in modo antico ed alchemico. Non serve niente da parte di metalli esotici, cristalli o di riserva frazionaria bancaria, e sappiamo che funziona perché Cristoforo Colombo e Gengis Khan lo hanno entrambi usato per riplasmare la nostra atmosfera  e il nostro clima almeno una volta in precedenza. Riforestando interi continenti (anche se non intenzionalmente, come effetto collaterale del genocidio e dello schiavismo di massa) entrambi hanno interrotto cicli di riscaldamento “naturale” e portato grandi cicli di raffreddamento – persino piccole ere glaciali – virtualmente nottetempo. 

Meno provata è più nel regno dei metalli esotici, cristalli e riserva frazionaria bancaria, è una strategia che è stata proposta da un gruppo di scienziati, diventati imprenditori, guidati da Peter Eisenberger e Graciela Chicilnisky dell'Università della Columbia (niente a che vedere col navigatore italiano). Essi propongono un'estrazione d'aria (depuratori al carbonio) a basso prezzo ed alta efficienza. Vogliono usare alberi artificiali per svuotare l'atmosfera, separare la CO2 e infilarla in qualche posto utile, tipo nelle lagune, dove può far crescere alghe per un biodiesel a 0,40 dollari al gallone, o in serra, dove può incrementare i rendimenti in vaso idroponici. 

Se ricordate Apollo 13 (il Film), potreste ricordare che la crisi che ha affrontato il personaggio di Tom Hanks era in misura inferiore la perdita di ossigeno rispetto alla saturazione di CO2 , che presentava un problema di minaccia alla vita. Gli ingegneri a terra hanno improvvisato un modo per congiungere contenitori dell modulo di comando a forma di cubo con le prese a cilindro dei contenitori del modulo di atterraggio cannibalizzando una tuta spaziale. 



Più tardi, gli shuttle hanno avuto un sistema di rimozione dell'anidride carbonica che rigenerava la sua sostanza assorbente, senza lasciare rifiuti. L'ossido di metallo assorbente veniva pulito pompando aria riscaldata a circa 200°centigradi (400° F) a 7,5 scfm (standard cubic feet per minute) attraverso il suo contenitore per 10 ore. 

Il carbonio attivato, prodotto dalla biomassa pirolizzata, può anche essere usato come assorbente di anidride carbonica a basso costo. Una volta che il carbonio attivato si satura, la CO2 può essere rimossa soffiando aria calda dal fondo, ma questo creerebbe uno scarico di sporcizia, quindi un metodo migliore è quello di immergere il biochar in reagenti come calce sodata, idrossido di sodio, idrossido di potassio o idrossido di litio che sono in grado di reagire chimicamente e di trasportare la CO2. Ciò è simile al processo che usiamo quando mescoliamo la segatura o la fibra di paglia tagliata con grassello di calce per fare intonaci e stucchi in bioedilizia. Nel tempo, il carbonio viene incorporato nella calce idrata, lasciando una superficie dura proprio come il calcare. L'aria viene spinta attraverso dei filtri e l'ammina assorbe quantità apprezzabili di CO2 a temperatura ambiente e di conseguenza rilascia la Co2 quando le temperature vengono aumentate a 70-120° centigradi (170-250°F). L'energia per alimentare le ventole ed il calore per il processo di desorbimento possono essere da combustibili fossili, da solare termico, da geotermico o da biomasse (comprese unità a Calore Combinato e Biochar – CHAB). Usare combustibili fossili sembra fallire lo scopo, ma i filtri possono anche essere istallati su una centrale diesel o a carbone ed usati per rendere l'aria delle ciminiere più pulita dell'aria che entra nella fornace dal cielo. 

Gli agenti reagenti specifici sono un segreto di mercato e il gruppo ha costruito i propri affari sotto il nome di “Global Thermostat LLC” di New York. All'evento delle Nazioni Unite a Rio, Eisenberger e la Chicilnisky hanno affermato che il loro processo estrarrebbe CO2 al ritmo di 2kg per ogni Kw/h consumato. “Una dislocazione operativa aggressiva si presume che inizi intorno al 2015, una data ritenuta fattibile, visto lo stato dell'arte della tecnologia”, dicono. Essi prevedono che dal 2040, con la metà delle nuove centrali del mondo che adottano questa tecnologia, potrebbero estrarre 34 gigatonnellate di anidride carbonica all'anno (GtCO2/a) per il resto del secolo. Il suolo richiesto per questo livello di estrazione è fissato come <300km2, circa la dimensione di Malta. La loro stima sul sequestro netto per il 2100, se va tutto secondo i piani, è di 2400 GtCO2. 

La “Terrificante Nuova Matematica”, come ha titolato Bill McKibben il suo pezzo su Rolling Stone, ora ha rilevanza nella discussione. McKibben dice: “Gli scienziati stimano che gli esseri umani possono riversare approssimativamente 565 ulteriori gigatonnellate di anidride carbonica in atmosfera entro metà del secolo ed avere ancora una speranza ragionevole di rimanere al di sotto dei 2 gradi. (“Ragionevole”, in questo caso, significa 4 opportunità su 5 o qualche probabilità in meno che giocare alla roulette russa con una pistola a sei colpi)”. Poi indica che le riserve accertate di carbone, petrolio e gas delle compagnie di combustibili fossili, e dei paesi che agiscono come compagnie di combustibili fossili, è un numero molto più ampio: 2795 Gt. 

Se tutte le riserve accertate di carbone, petrolio e gas venissero bruciate entro il 2100 (2795 Gt) ed allo stesso tempo si introducesse l'esperimento dell'estrazione d'aria del Termostato Globale (che sequestra 2400 Gt), allora l'atmosfera terrestre avrebbe ancora posto per 170 Gt prima di raggiungere il limite di riscaldamento di 2° centigragradi stabilito a Kyoto  (2795-2400 = 395; 565-395 = 170).

Ma ci sono diverse ragioni per cui questo conto è ancora sfocato. Primo, non c'è ancora una risposta giusta. La concentrazione interglaciale normale di CO2 è 280 ppmv (parti per milione in volume), non 350 – l'obbiettivo di MvKibben – o 390 e più, al quale ci troviamo ora. Il metano dovrebbe essere a 650 ppb (parti per miliardo) ma invece è a 1756 ppb, 2,5 volte più alto di quanto non sia stato per milioni di anni. Puntare a 350ppm, o anche restare al livello attuale, probabilmente non è abbastanza buono.

Alle 9 il cucu femmina (A)esce fuori e bacia il cucu maschio vivo (B) – Il cucu maschio, per paura di una proposta nell'anno bisestile, vola via e la corda (C ) tira il gancio (D) liberando la mano (E) – la quale lancia il cappello di ricambio (F) sull'attaccapanni (H) – il peso del cappello solleva la copertura (I) dalla macchina da scrivere (J) cosicché il capo pensi che siate da qualche parte vicino all'ufficio!

Nessuno ha realmente mai visto i depuratori del Termostato Globale in azione e probabilmente non li vedrà, finché non ci sarà qualche tipo di limitazione nelle emissioni o una tassa assegnata al carbonio che forzi le centrali a carbone ad installarli. Il siluramento da parte di Obama del trattato di Kyoto a Copenhagen e in seguito a Cancun e Durban assicura che non ci sono limitazioni del genere nell'aria. Nè Mitt Romney, né il successore probabile di Obama, Hillary Clinton, sembrano intenzionati a percorrere quella strada, finché i loro finanziatori rimangono negazionisti climatici. Senza incentivi finanziari, né i compratori, né i venditori avrebbero un mercato per i depuratori di carbonio. Infatti, questa era la spinta centrale nella presentazione della Chicilnisky a Rio. Voleva che il “Green Climate Fund” di Hillary (più recentemente ribattezzato “Green Energy Fund”) fosse destinato quasi esclusivamente alla tecnologia dell'estrazione dell'aria (aka “clean coal”, carbone pulito). 300 miliardi di dollari sono un incentivo sufficientemente adatto col quale lanciare la sua piccola New York LCC. Non sappiamo realmente quanto costerebbe la tecnologia degli alberi ceramici del Termostato Globale, perché non sappiamo cosa serve per fare l'Elisir dell'Ammina Immobilizzata brevettato dal Dr. Magia o quanto il Dr. Magia voglia come diritti per l'uso del suo brevetto. 

Tuttavia, la portata della dispensa del serpente petrolifero del Dr. Magia è stata superata dal furfante principale del pezzo di McKibben, Padre Tempo. McKibben conclude il suo saggio con queste parole: 

“Questo mese, gli scienziati hanno pubblicato un nuovo studio che conclude che il riscaldamento globale ha aumentato drammaticamente la probabilità di gravi ondate di calore e siccità. Pochi giorni dopo un'ondata di calore sugli altipiani del Midwest ha superato i record che resistevano dai tempi del Dust Bowl, minacciando il raccolto di annuale. Volete un numero? Nel corso di questo mese, un quadrilione (10 alla ventiquattresima) di semi di mais hanno bisogno di essere impollinati lungo la 'fascia del grano', cosa che non può essere fatta se le temperature rimangono fuori scala. Proprio come noi, i nostri raccolti sono adattati all'Olocene, il periodo di 11.000 anni di stabilità climatica che stiamo per lasciare... nella polvere”.

Se siamo fortunati, possiamo atterrare su qualcosa che somigli al Massimo Termico del Paleocene-Eocene nel quale hanno vissuto in nostri antenati (rettili) 55 milioni di anni fa, che è durato 200.000 anni, ma perché accada questo, la curva di accelerazione degli anelli di retroazione positivi delle forzanti climatiche dovranno invertirsi, e anche molto presto, e dato l'attuale stato dei clatrati di metano che gorgogliano, il Permafrost che rilascia gas, la perdita estiva di ghiaccio, il ritardo dell'Atlantic Conveyor ed altro, anche questo sconfortante scenario da Eocene di 5 gradi sembra eccessivamente e poco plausibilmente ottimista.

Il giocatore di golf tira il grilletto (A), sparando il sostegno della palla da golf alla fine della pistola – la detonazione della pistola causa la corsa della marmotta (B) nel buco (C ) - la palla di cannone (D) cade sulla pompetta (E) facendo spruzzare il dispenser (F) sulla maglietta (G) – la maglietta si restringe leggermente aprendo le pinze del ghiaccio (H) e permettendo la palla da golf (I) di cadere sul sostegno!

Come abbiamo detto ai nostri lettori 32 anni fa, c'è un ritardo di 25-50 anni fra quando raggiungiamo le emissioni zero e quando il pianeta smette di riscaldarsi. Detto in altro modo, le siccità, gli incendi, le tempeste estreme e tutte le altre manifestazioni del cambiamento climatico che stiamo vivendo oggi, nel 2012, sono il risultato diretto dlla cultura del macchinone e del motore truccato del 1962. Nel 1962, c'erano 50 milioni di automobili e il viaggio aereo commerciale viveva ancora la sua infanzia. Portare un uomo sulla Luna era lo slogan elettorale di Kennedy. Quale tipo di impronta abbiamo oggi, invece, e che tipo di segno sta lasciando nel mondo dei nostri nipoti?

Piuttosto che abbracciare o respingere il processo del Termostato Globale diamo cautamente il benvenuto all'estrazione d'aria come una tecnologia in più probabilmente utile, auspicabilmente innocua, che potrebbe tagliare di qualche grado la nostra sentenza. 

L'estrazione dell'aria in nessun modo da la licenza di continuare con la festa, come qualcuno all'incontro delle Nazioni Unite potrebbe aver pensato, o di bruciare tutte quelle riserve effettive. McKibben ha mortalmente ragione su questo; quelle riserve di carbonio devono rimanere nel sottosuolo se vogliamo avere qualche possibilità.

Il Professor Butts beve un bicchiere di uno strano gin e sviluppa una invenzione per aprire la porta del garage senza uscire dalla macchina. Va col paraurti (A) contro la mazza (B) spingendolo giù facendo esplodere il coperchio (C) spaventando il coniglio (D) che corre verso la sua tana (E) tirando la corda (F) che scarica la pistola (G). La pallottola penetra il barattolo (H) dal quale goccia l'acqua nell'acquario (I). Mentre il livello sale nell'acquario, esso solleva il sughero in posizione verticale (J) che spinge l'altalena (K) a fine corsa, provocando la perdita di equilibrio della pulce (L) e facendola cadere sulla coda del segugio addormentato (M), il quale si sveglia e fa girare la coda in continuazione, facendo girare la piattaforma (N) e aprendo la valvola (O). L'acqua scorre in un tubo (P) che comincia a riavvolgere l'irrigatore (Q) sul quale la corda (R) si avvolge aprendo la porta del garage. Naturalmente, se volete, potete andare dritti contro la porta, così non ci saranno più ostacoli a disturbarvi in futuro.



L'estrazione dell'aria, se e quando raggiungerà la dimensione di fattorie di filtraggio delle dimensioni di Malta nel 2040, potrebbe anche cominciare a tirare fuori radionuclidi, che sarebbe una cosa buona e che ci riporterebbe al pre-Fukushima, anche all'era pre-Trinità , circa 1943, quando il fallout ha provocato la perdita dei capelli. Ma siccome nessun legislatore ha mai trovato un modo per stanziare abbastanza soldi per spostare le scorie nucleari da serbatoi che perdono nei depositi, in piscine stipate presso reattori costruiti sulle coste o su faglie sismiche o qualsiasi altra trappola mortale per adescare le generazioni future, è difficile immaginare di spendere i soldi dei contribuenti in rimozione estrattiva dei radionuclidi (lasciate perdere l'anidride carbonica). Le imprese private reggeranno questo fardello? Fateci vedere i soldi.   

Dovremmo ricordare che il biochar ed altre tecniche di agricoltura col carbonio, non hanno bisogno di un mercato della CO2 o di un Green Climate Fund. Esse aumentano le rendite agricole e la resistenza alle siccità indipendentemente dal prezzo speculativo del carbonio. Possono essere guidate dal mercato senza incentivi da adesso.

La nostra strategia più pratica, come abbiamo sottolineato nel 2006 nella Manuale di Sopravvivenza alla fine del Petrolio, resta quella di aumentare l'adattabilità e la resilienza climatica ed economica – personale, del quartiere, della comunità e della zona – mentre lavoriamo per facilitare una transizione ad una organizzazione sociale più sana che promuova la guarigione planetaria. Questa potrebbe e dovrebbe includere l'estrazione dell'aria e non solo per il carbonio. Noi usiamo proprio alberi. Quelli veri. 

Abbiamo bisogno di lasciar fare a Gaia quello che fa meglio. Se potessimo semplicemente smettere di ferirla ulteriormente, essa potrebbe ancora recuparare. Ha la volontà di farlo anche se, al momento, succede che abbia una febbre seria e molto spiacevole. Ci sono voluti a noi, i bipedi, centinaia di migliaia di anni di vita compassionevole, nel complesso, per un periodo stabile nell'Olocene per emergere dai regimi climatici caotici di tutti i tempi precedenti. Abbiamo fatto pressione sui confini di questa stabilità con le nostre città, i fiumi deviati, deserti ed agricoltura fatti dall'uomo, ma l'abbiamo anche aiutata a recuperare, aggirando e persino proteggendo enormi estensioni di foresta pluviale e montagne sacre ed intoccate. 

L'equilibrio che i nostri predecessori avevano con nostra madre era delicato e in soli 150 anni lo abbiamo distrutto. Ma quel controbilanciamento potrebbe non essere ancora al di là della redenzione. Dobbiamo solo rimettere le foreste e smettere di sporcare il nostro nido.