Fusione calda e fusione fredda

C’è un altro modo per ottenere energia dalla materia, un’altra reazione nucleare, che sfruttiamo da quando ci siamo affacciati sul pianeta e che fornisce calore, luce, radiazione alla Terra da oltre 4 miliardi di anni. Si tratta della fusione nucleare. Da un punto di vista energetico è un pochino l’opposto della fissione. Perché avvenga infatti occorre che due nuclei molto leggeri vengano fusi assieme, da cui il nome della reazione.
La spiegazione del fenomeno è abbastanza semplice. Dentro un nucleo ci sono due tipi di particelle: i protoni che si respingono tra di loro e i neutroni, il cui compito è opposto e cioè quello di tenere insieme le particelle nel nucleo. E’ l’equilibrio tra queste due azioni a tenere in piedi la struttura nucleare. La forza dei neutroni, chiamata interazione forte, è tanto maggiore quanto più vicine sono le particelle. E dunque per far prevalere quest’azione occorre avvicinare moltissimo due nuclei fino a che l’interazione forte non prevale su quella elettrica dei protoni e i due non diventino un tutt’uno. La materia dell’universo non è, alla fine, molto fantasiosa, nel senso che essa è fatta tutta di tre particelle fondamentali: protoni e neutroni, appunto ed elettroni. Anche se questa descrizione salta un sacco di capitoli di fisica e chimica, questo è quello che ci serve per capire adesso e quindi qui possiamo fermarci. Le varie sostanze, dall’Idrogeno al Ferro, al Rame, all’Uranio sono costituite di atomi che si differenziano non per il tipo di particelle che contengono (sempre protoni, neutroni ed elettroni sono) ma per il loro numero. Così un atomo di ferro contiene 54 tra protoni e neutroni, mentre il Rame ne contiene 63, il Litio solamente 6 e il Thorio ben 232. Se prendo due nuclei di idrogeno, che contengono un solo protone e li fondo assieme, otterrò una sostanza differente perché il numero delle particelle costituenti è alla fine cambiato. Credo si possa facilmente capire che fondere particelle pesanti (con tanti protoni che si spintonano via) sia molto difficile e che quindi questa reazione nucleare sia riservata ai nuclei più leggeri.
In realtà assistiamo nell’Universo anche a fusioni di nuclei abbastanza pesanti, come il Carbonio o il Ferro, ma questo avviene solo in condizioni davvero estreme, come in alcuni tipi di stelle dove i valori di temperatura e pressione sono inimmaginabili per noi.
Il Sole, come la maggior parte delle stelle che vediamo, è una specie di stufa che brucia come combustibile idrogeno. Questo avviene nella parte più interna del sole, il nucleo, dove le stime parlano di una temperatura che sfiora i 15 milioni di gradi. Proprio queste condizioni estreme consentono ai nuclei di idrogeno di avvicinarsi moltissimo tra loro e fondersi. E qui scatta ancora la legge di Einstein. Dal momento che la massa di quello che produce la fusione nucleare (nel nostro caso dopo un paio di passaggi intermedi si tratta di nuclei di Elio) è più piccola della somma dei reagenti (cioè dei nuclei di idrogeno iniziali) la differenza compare come energia. Per capire l’enorme portata di energia fornita in questo modo da una stella anche abbastanza piccola come il Sole, bisogna capire che si tratta di un astro le cui dimensioni sono spaventose rispetto a quelle a cui siamo abituati. Non esiste sulla terra un termine di paragone plausibile. IL diametro del sole è quasi un milione e mezzo di km, più di tre volte e mezza la distanza terra-luna.
Dunque quello che avviene nel Sole è di trasformare l’Idrogeno in Elio e produrre energia, tanta energia, una quantità veramente mostruosa. Una porzione minima di questa arriva anche sulla Terra ed è questa inezia che ha permesso che il pianeta si popolasse di piante e di animali.
Dunque la fusione nucleare è un fenomeno naturale, nel senso che avviene spontaneamente in natura anche se in condizioni veramente molto, ma molto particolari. Basta pensare che il nucleo del sole rappresenta solo il 10% del volume complessivo, anche se contiene il 40% della massa con pressioni pazzesche di quasi 500 miliardi di atmosfere. Insomma valori che sulla terra non sono riproducibili.
Sono queste condizioni, di elevatissimi valori di temperatura e pressione, che vanno raggiunti per realizzare in laboratorio una fusione nucleare che ci consenta di sfruttare al meglio tutta l’energia che mette a disposizione. Tra le altre cose c’è da dire che una simile fonte di energia supererebbe un sacco di problemi di quelle attuali, come la disponibilità praticamente illimitata e gratuita di combustibile oltre al fatto di avere effetti collaterali decisamente meno problematici, come le radiazioni prodotte e la necessità di confinare le scorie per migliaia di anni come avviene nelle centrali nucleari a fissioni attualmente funzionanti.
Sembra un’impresa impossibile quella di replicare il sole in laboratorio eppure l’uomo ci è riuscito molti anni fa, all’inizio degli anni 50, ma per scopi che con il sostentamento della razza umana niente hanno a che vedere. Infatti la tecnologia è riuscita finora ad usare la fusione nucleare dell’idrogeno solo per creare delle bombe. La prima è stata sperimentata dagli Stati Uniti nel 1952, la più grande di tutte, quella sovietica chiamata Zar, nel 1960: aveva una potenza pari a circa 3200 volte quella che aveva distrutto Hiroshima nel 1945.
La cosiddetta bomba H o bomba all’idrogeno è in realtà un misto di fissione e fusione. Esplode prima una bomba a fissione, che porta ad avere la temperatura giusta per innescare la fusione dell’idrogeno, la cui esplosione provoca l’innesco di una seconda bomba a fissione. Una follia.
Ma queste cose fortunatamente appartengono al passato e là speriamo rimangano. Come siamo messi, invece, dal punto di vista dell’utilizzo pacifico della fusione nucleare?
Ho sempre sentito, fin da ragazzino, dire che questa sarà l’energia del futuro. Adesso il futuro è arrivato e possiamo scoprire che passi sono stati fatti e in quale direzione.

Fusione nucleare in laboratorio

Mi sembra abbastanza chiaro quale sia il problema con la fusione nucleare da realizzare in laboratorio. Serve un contenitore che trattenga in qualche modo il plasma a temperature enormemente elevate. E non esistono materiali con queste proprietà, tutti fondono molto prima di raggiungere i valori necessari di temperatura.
Bisogna allora inventarsi qualcos’altro. Gli scienziati, abbondantemente finanziati dai governi fin dagli anni ’60, lo stanno studiando e qualche soluzione è stata trovata.
La più conosciuta è chiamata tokamak, una macchina che produce un intenso campo magnetico dalla forma molto particolare che ha la proprietà di trattenere dentro se stesso particelle cariche, come sono appunto i nuclei di idrogeno utilizzati. In realtà la miscela che viene immessa è costituita da isotopi dell’idrogeno comune e precisamente da deuterio e trizio, ma questo non è molto importante per il discorso che stiamo facendo. Il tokamak è un’idea sviluppata nel 1951 nell’Unione Sovietica di Stalin e resa pubblica nei dettagli solo nel 1958. Ma soltanto dopo altri dieci anni gli scienziati occidentali e precisamente britannici e statunitensi, poterono osservare i dati che erano decisamente più avanzati dei loro. E così il tokamak diventò il progetto su cui lavorare e sul quale ancora oggi si lavora, nonostante al progetto originali molte e sostanziali modifiche siano state apportate.
Nel 1968 gli scienziati russi comunicarono i loro migliori risultati che erano di circa 11 milioni di gradi, una temperatura sufficiente ad innescare la reazione di fusione nucleare. Ora qualcuno si chiederà cosa mai significhi una temperatura di questo livello e come si faccia a misurare. Certo non con un termometro per la febbre. Occorre sapere che la nostra idea di temperatura è solo una delle possibili. La temperatura in effetti è una grandezza astratta, una grandezza che nessuno di noi incontra per strada, come la forza o l’energia. Di tali grandezze noi possiamo solo vedere gli effetti, sentiamo caldo, veniamo spinti via, facciamo muovere un veicolo. La temperatura è una grandezza che può essere interpretata dal punto di vista microscopico. Essa misura lo stato di agitazione delle particelle che costituiscono il microcosmo della materia. Le molecole della sedia su cui siamo seduti non sono immobili, vibrano e vibrano tanto maggiormente, con tanta più velocità quanto più caldo è l’oggetto, quanto più alta è la sua temperatura. E’ chiaro che questo concetto funziona molto meglio con un gas, dove le particelle costituenti non sono legate più di tanto tra loro e possono andare di qua e di là senza ostacoli. E’ quello che accade nel plasma del tokamak. La velocità con cui i nuclei si agitano e si muovono determina il valore della temperatura. Così 10 milioni di gradi significa semplicemente che la velocità media delle particelle è di un certo valore, più elevato che se la temperatura fosse di 5 milioni di gradi o di soli 37°C.
Sembra tutto molto semplice e lo scopo è quello di raggiungere la cosiddetta ignizione, cioè la condizione in cui la fusione si autosostenta, diventando così una fonte enorme e molto pulita di energia.
Quali sono allora i problemi di questa tecnologia? Sono sostanzialmente due: il primo è che non si debba spendere troppa energia per innescare la reazione, addirittura più di quella che poi si ottiene. E’ quanto avvenuto in Russia nel 2004 quando l’equipe di Vladimir Krainov riuscì sì a produrre una reazione controllata, innescata dal confinamento laser alla temperatura fantastica di 1 miliardo di gradi, senza emissione di sostanze particolarmente pericolose. Ma l’energia richiesta dal laser era nettamente maggiore di quella prodotta dalla reazione.
La maggior parte delle nazioni del mondo sono in prima linea nello studio della fusione nucleare ed esiste oggi come stadio più avanzato di tutti un progetto internazionale chiamato ITER.
Naturalmente l’obiettivo non è solo quello di produrre energia da questo processo, ma di farlo in modo conveniente, riuscendo a spendere assai meno energia di quella che si otterrà. Il progetto internazionale vede la partecipazione dell’Unione Europea, Stati Uniti d'America, Corea del Sud, Giappone , Russia, Cina. La base è un paese nel sud della Francia, Cadarache, l’investimento per ora di circa 10 miliardi di euro. La cifra in sé non è granché se pensiamo agli stati coinvolti e al fatto che, tanto per fare un esempio, la centrale EPR in costruzione ad Olkiluoto, verrà alla fine a costare circa 7 miliardi di euro. L’Italia partecipa poi con una sua quota di meno di un miliardo di euro.
Ma ci sono altre questioni che non si possono dimenticare. Il progetto è a lunga gittata. Qualche anno fa se ne è discusso anche in parlamento e il partito di maggioranza era molto scettico sul progetto, che non dava alcuna garanzia di successo nel breve periodo. Non si deve però dimenticare che all’epoca (siamo nel 2009) il partito di Berlusconi stava spingendo in modo molto deciso sul nucleare tradizionale e questa partecipazione poteva apparire per qualcuno una alternativa alla soluzione delle centrali a fissione. La preoccupazione di altri settori sociali è che questi investimenti impoveriscano la ricerca sulle energie rinnovabili, anche se io personalmente penso che le due cose non abbiano proprio nulla a che fare l’una con l’altra.
Ad ogni modo l’obiettivo è quello di costruire proprio a Caradache un reattore da 500MW (un terzo della potenza di una centrale a fissione di terza generazione) entro il 2030. Si, lo so che mancano quasi 20 anni e che, se facciamo tesoro delle esperienze passate, questo significa che prima del 2050 difficilmente sarà possibile accendere una lampadina grazie ad una centrale a fusione. Ma è giusto, credo, che la ricerca vada avanti perché è attraverso essa che si conquistano nuove importanti conoscenze. Anche Padova ha la sua equipe di scienziati e tecnici che lavorano in direzione della fusione con risultati piuttosto apprezzabili a quanto si sa.
Insomma la scienza sta facendo i suoi passi. Ma la scienza non è come l’industria che deve produrre perché occorre essere in attivo. Essa ha i suoi ritmi, rispetta dei tempi quasi naturali. Ha bisogno di contributi esterni da parte di altri settori della Fisica, della Matematica, dell’Ingegneria. Arriverà, probabilmente, il giorno in cui un piccolo sole potrà brillare anche sulla Terra. Quanto lontano sia quel giorno non lo possiamo sapere. Il problema è arrivare a quel giorno in buona salute e per fare questo è necessario abbandonare lo sviluppo selvaggio che abbiamo intrapreso e rivolgere lo sguardo ad altri modi, più puliti e razionali di produrre energia. Si potrebbe anche arrivare all’energia da fusione quando il sistema Terra funziona usando esclusivamente energia rinnovabile.
Ma se il grande problema della fusione è il confinamento del plasma acceso a temperature folli, la domanda che sorge è la seguente: non possibile avere una fusione a temperature più basse, ossia: esiste una fusione fredda? Bella domanda, per la risposta basta aspettare solo un pochino.

Fusione fredda - storia (9’)

Alla fine degli anni 80 due chimici, il ceco Fleishmann e lo statunitense Pons, diedero un annuncio che sconcertò l’intero ambiente scientifico. Essi affermarono di essere riusciti ad ottenere una reazione di fusione nucleare a temperature e pressioni enormemente inferiori a quelle previste dalla fisica fino a quel momento.
Avevano usato una cella elettrolitica formata da due elettrodi particolari uno di Palladio e l’altro di Platino immersi in una soluzione a base di acqua pesante. A noi le questioni tecniche qui interessano solo fino ad un certo punto. Quello che conta è che questo annunciò avvenne prima della pubblicazione dei risultati su una qualsiasi rivista scientifica. E già questo fece storcere il naso a più di qualcuno, perché la prassi e la metodologia nella scienza sono elementi presi molto sul serio.
In realtà Martin Fleishmann, che tra l’altro era stato docente di Stanley Pons, lavorava a questo progetto da un sacco di tempo, da oltre vent’anni come aveva lui stesso dichiarato più volte in passato. E aveva anche predetto che i suoi studi avrebbero portato a qualcosa di concreto e realizzabile.
Il pilastro del metodo scientifico, applicato da tutti i rami della ricerca dal 1600 in poi, è la riproducibilità dei fenomeni. Ciò significa che qualsiasi esperimento perché sia considerato veritiero deve poter essere replicato, riprodotto, eseguito ovunque e da chiunque. Non si può semplicemente dire: “Ho fatto questo, ottenuto quest’altro”. Non funziona, anche perché dietro i progetti e le ricerche ci sono, specie negli Stati Uniti, finanziamenti che permettono tutte le altre attività che si vogliono portare avanti. E’ così che l’Università dello Utah, dove la fusione fredda ebbe origine nel 1989, chiese subito al Senato americano un finanziamento di 25 milioni di dollari per proseguire le ricerche.
Non ci si deve meravigliare di un simile atteggiamento. Esso è piuttosto abituale in ambito universitario e della ricerca. E quindi non si deve neppure giudicare con troppa severità la richiesta dell’Università.
Sono anni molto particolari quelli in cui Pons presenta in pompa magna alla stampa la sua invenzione. Non si sono ancora spenti gli echi del disastro di Chernobyl e sull’energia nucleare da fissione c’è un certo dibattito in corso, anche se la responsabilità dell’accaduto in Unione Sovietica viene riversato sull’incompetenza degli operatori e non sul principio alla base della produzione di energia. E dunque un annuncio di questo tipo venne preso dalla stampa ed esaltato come se dal giorno dopo tutte le lampadine del mondo potessero accendersi usando l’acqua di rubinetto.
Ma le cose andarono molto diversamente. Un sacco di scienziati si buttarono sulla documentazione fornita da Fleishmann e Pons e tentarono di ripetere l’esperimento. Nella maggior parte dei casi fallirono e questo certo non portò sentimenti di fiducia e stima nei confronti dei due chimici. Anzi vennero semplicemente bollati come dei mentitori, approfittatori se non dei poco di buono.
Ma agli osservatori più attenti non sfuggì il fatto che con ogni probabilità la cella produceva energia solo in situazioni particolari, che Fleishmann e Pons avevano ottenuto e magari non avevano sottolineato come meritavano, per cui erano sfuggite un po’ a tutti.
Uno degli esperimenti che sono forse più conosciuti venne eseguito da Douglas Morrison del CERN di Ginevra e suonò come una stroncatura dell’intera faccenda. Egli classificò la scoperta addirittura come “Scienza patologia” che è l’insieme di quelle idee già dimostrate sbagliate ma delle quali non ci si riesce a liberare. Insomma una posizione molto dura.
Gli anni seguenti furono di grandi polemiche attorno alla questione. Non voglio diventare troppo pesante, ma è chiaro che se si destinavano più soldi alla fusione fredda, meno ne sarebbero andati alla fusione calda, che godeva di sostenitori abili e potenti. Questo sospetto fu reso pubblico negli anni ’90 da un po’ di persone, tra cui anche un premio Nobel per la fisica, Julian Schwinger.
Gli stessi Fleischmann e Pons soffiarono ulteriormente sul fuoco quando ammisero che qualche misura dell’energia rilasciata conteneva degli errori.
Insomma il mondo scientifico si spaccò in due anche se la parte maggiore tendeva a condannare l’azione dei due chimici e a non credere affatto possibile che il fenomeno fosse stato osservato. La questione interessò ovviamente anche gli ambientalisti che vedevano nella fusione fredda una soluzione rapida, indolore e molto democratica della questione energetica. E nacque la teoria del complotto secondo cui i potenti del mondo avevano messo in cantina i lavori di Fleischmann e Pons per proteggere le lobby della fissione e del petrolio.
L’interesse per la fusione fredda cominciò a diminuire e non se ne parlò più per tutti gli anni ’90, soprattutto negli USA, mentre mantenne un certo interesse in altri paesi, tra i quali l’Italia.
E’ l’ENEA ad interessarsi della questione e i primi risultati furono ottenuti dal prof. Scaramuzzi e dalla sua equipe, sostituendo i materiali degli elettrodi. Ma le ricerche furono poche e soprattutto scarsamente documentate dalle riviste di settore.
Finché, nel 1998 due ricercatori giapponesi, Ohmori e Mizuno, non arrivarono con un’altra notizia bomba. Essi avevano ottenuto una fusione fredda utilizzando elettrodi molto meno costosi degli originali immersi in una soluzione di acqua e carbonato di potassio, attraversata da una corrente ottenuta con una tensione di 200-300 Volt, niente di eccezionale insomma. Il risultato, secondo i due ricercatori nipponici portava il sistema a produrre energia con un coefficiente di prestazione del 500%.
Anche il risultato giapponese scatenò la rincorsa alla riproducibilità. Furono numerosi i tentativi di replicare l’esperimento a volte con esiti positivi ed altri con esiti negativi, per cui ancora una volta si tornò ad avere due correnti di pensiero tra gli scettici e i convinti.
All’inizio del 1998 e per due anni la società EarthTech International Inc. svolse tre cicli di test ai quali parteciparono anche i Ohmori e Mizuno. I risultati furono assolutamente deludenti e niente si poté dimostrare circa il guadagno energetico nella reazione.
Alcuni anni dopo, nel 2002, toccò alla marina USA intervenire, sostenendo che la fusione fredda era un fenomeno reale e concreto. Nel documento si ripercorrono gli esperimenti gestiti dalla US Navy negli ultimi 4 anni.
Arriviamo così al 2004 quando nella discussione si affaccia il ministero dell’energia americano. Il lavoro che fece il Dipartimento fu quello di coinvolgere un gran numero di scienziati che esaminassero la letteratura sulla fusione fredda fino a quel punto per riferire poi il loro parere. Il risultato ancora una volta fu molto deludente.
  1. Quasi tutti giudicarono il progetto povero, inconcludente e mal eseguito
  2. Tutti meno uno dissero che nei lavori la presenza di reazioni nucleari a bassa temperatura non è dimostrato
  3. Tutti sconsigliarono di fornire finanziamenti pubblici a questo tipo di ricerca.
Una stroncatura mica da ridere, anche se il reparto ricerca della DOE timidamente suggerì che una simile ricerca non dovesse essere interrotta.
E arriviamo così all’esperimento di Arata del 2008. Yoshiyaki Arata è un fisico giapponese che oggi ha quasi 90 anni ed è considerato un vero pioniere della fusione fredda. Egli si avvalse della nascente nanotecnologia per inventare e costruire una cella assai differente da tutte le precedenti. Nel 1998 egli dichiarò di aver ottenuto energia dalla cella, ma fu nel 2008, all’università di Osaka, che egli si presentò al pubblico accademico per mostrare la sua realizzazione.
Quello che Arata voleva mostrare era che, una volta innescata la reazione essa era in grado di mantenere in moto un motore senza ulteriore fornitura di energia. Questo avvenne puntualmente. Lo stesso scienziato giapponese tuttavia volle essere molto chiaro sostenendo che c’erano ancora alcuni problemi da risolvere prima di pensare a tradurre in tecnologia la scoperta scientifica e quindi renderla commerciabile.
Come già sottolineato anche l’Italia ha avuto un ruolo importante in questa vicenda. A parte i lavori pioneristici possiamo partire dal 1999, dieci anni dopo la prima conferenza di Fleischmann e Pons, quando Carlo Rubbia, allora presidente di ENEA, decide di fare chiarezza sull’intera questione. Vengono stanziati 600 mila euro e incaricata una equipe di sperimentatori tra i quali Emilio Del Giudice, Antonella De Ninno e Antonio Frattolillo. Nel 2002 si arriva alla conclusione e viene redatto, come di prassi, un resoconto finale che è conosciuto come  Rapporto 41. Dal momento che elementi positivi erano stati riscontrati nelle varie fasi dei lavori, Antonella De Ninno insiste perché quel Rapporto sia pubblicato sulle riviste scientifiche, cosa che però non avviene. La mancata comunicazione e, poco dopo, le dimissioni di Rubbia dall’incarico, fanno sparire dalla scena scientifica la ricerca di Frascati.
Passano alcuni anni e nell’ottobre 2006 RAINEWS24 manda in onda un’inchiesta proprio sul Rapporto 41. La trasmissione si apre sulle parole che Martin Fleishmann rivolgeva a Carlo Rubbia: “
Caro professor Rubbia, sono molto lieto che il programma di ricerca intrapreso da Giuliano Preparata abbia conseguito il suo scopo ... I risultati ottenuti dai ricercatori italiani sono veramente impressionanti, e non esagero.
Più che sugli esiti scientifici e tecnici l’inchiesta sottolinea le difficoltà incontrate dai ricercatori nella pubblicazione del loro rapporto.
E così si scopre che la sperimentazione sta andando avanti, seppure tra mille ostacoli e nuovi successi si realizzano negli anni seguenti sia all’ENEA che all’INFN (Istituto Nazionale Fisica Nucleare). 

La cella Nichel-Idrogeno

Durante gli anni 90 e la prima decade del 2000 un’altra strada è stata intrapresa nella ricerca di ottenere energia da fusione fredda.
Tra l’89 e il 94 Francesco Piantelli, Sergio Focardi e Roberto Habel, rispettivamente delle Università di Siena, Bologna e dell’INFN di Cagliari lavorarono su una cella che produceva una anomala quantità di calore. Dopo cinque anni di sperimentazione nel 1994 la conferenza stampa che annunciava un processo di produzione di energia per mezzo di energia nucleare a bassa energia (o LERN come oggi si chiama), molto differente da quello di Fleishmann e Pons.
Alcune repliche sono state tentate negli anni seguenti perfino al CERN di Ginevra sotto la guida di Antonino Zichichi, ma nessuna di esse ha dato un risultato abbastanza positivo da confermare il fenomeno osservato dai tre ricercatori.
E, per chiudere questa puntata, facciamo la conoscenza con un personaggio del quale abbiamo sentito e sentiremo parlare a lungo. Si tratta di un imprenditore milanese, Andrea Rossi. Negli anni ’70 era salito alla ribalta della cronaca per aver aperto un’azienda che avrebbe trasformato i rifiuti in combustibili fossili (petrolio e gas e carbone). Ci fu un’indagine ministeriale che escluse questa possibilità. Rossi ebbe anche qualche problema con la giustizia in quanto venne accusato di vari reati legati allo smaltimento dei rifiuti. Assolto per il reato di associazione a delinquere, è stato però condannato in primo grado a 8 anni di carcere per la bancarotta fraudolenta dell’azienda in questione.
Il nome di Andrea Rossi torna sulle prime pagine dei giornali, ma soprattutto nei siti internet con una notizia bomba, una di quelle che vedi subito che si tratta o di una scoperta rivoluzionaria o di una bufala grande così.
Dal momento che anche questa vicenda è entrata nel giro vizioso dei seguaci e dei complottisti, dico subito che non ho nessuna posizione da prendere in merito, perché ritengo che le conoscenze attuali sulla questione siano ancora troppo poche. Voglio quindi solo raccontare la cronaca di quella che ormai tutti chiamano E-CAT, che sta per (CATalizzatore di Energia).
Ma cominciamo dal principio. Rossi presenta la sua macchina al pubblico mostrando come essa sia in grado di sviluppare calore con un rapporto tra l’energia in entrata e in uscita pari a 12. Significa che l’oggetto misterioso produce 12 volte più energia di quella che spende, un affare colossale dunque.
Per gli scienziati che si occupano di questo oggetto l’apparecchio di Rossi assomiglia molto alla cella di Focardi e Piantelli anche se rimangono misteriosi i componenti e il combustibile usati. I primi esperimenti vengono condotti in pubblico, spesso con la presenza di tecnici ed esperti di fama. Perfino RAI-news dedica alla realizzazione di Rossi un servizio nel maggio del 2011. Si muovono scienziati dalla Svezia, ma il dubbio che si tratti di una bufala resta per tutto il 2011. Emblematico al riguardo è l’articolo scritto dalla rivista specializzata Nuclear Energy Enciclopedia, che espone i suoi moltissimi dubbi sulla validità del fenomeno.
Negli ultimi mesi del 2011 e in questi primi del 2012 la vicenda ha preso corpo e si è sviluppata. Si è parlato di E-Cat perfino nei comizi per le primarie del partito repubblicano negli stati Uniti.
In realtà l’incredulità che circonda questo progetto è legata, oltre che al personaggio Rossi, anche al fatto che non si sa quasi niente del prodotto. In effetti nessuno sembra conoscere i particolari costruttivi e di funzionamento. Rossi sostiene che questo dipende dal fatto che ancora non ha avuto il brevetto italiano. Ma risulta che un brevetto americano sia già in mano dell’ingegnere milanese.
Del resto proprio recentemente una società greca ha eseguito una prova sperimentale di fronte ad alti funzionari del governo di una macchina chiamata Hyperion che, secondo l’entourage di Andrea Rossi, sarebbe solo una copia del suo E-Cat. E questo aumenta ovviamente la coltre di nebbia che l’inventore mette attorno al suo prodotto.
Quello che poi succede è che le voci, soprattutto in rete, girano e si moltiplicano senza alcun controllo. La moltiplicazione è fatta quasi sempre da frequentatori del web che sono completamente ignari della questione e che vedono in essa esclusivamente il lato sensazionalistico. Sono insomma quella pletora di fanatici delle catene di S. Antonio e delle informazioni che appena si avvicinano al loro modo di pensare sono giuste, altrimenti sono infamanti. Bisogna stare molto attenti con queste questioni.
Così una sperimentazione eseguita al MIT di Cambridge sulla fusione fredda è stata propagandata come una conferma autorevolissima della E-Cat. In realtà l’apparecchio usato dall’Istituto americano non assomiglia per niente a quello di Rossi e rappresenta un’altra linea sperimentale attorno alla fusione fredda.
Il tentativo di coinvolgere strutture importanti come la NASA e l’Università di Bologna sono fallite. La NASA per bocca di uno dei suoi scienziati che si occupa di energia da fusione fredda ha avanzato sul lavoro di Rossi le stesse critiche e perplessità di tutti gli altri: mancanza di chiarezza nelle prove effettuate, dati completi non disponibili, mancanza totale di verifica di parti indipendenti, che, come dicevo prima sono il sale del metodo scientifico.
A questo proposito Andrea Rossi aveva stipulato un contratto con L’Università di Bologna per eseguire là i test necessari. La cifra da versare era di mezzo milione di euro. Ma il tempo è passato e il nostro inventore ha sempre prorogato l’impegno senza pagare niente. Così l’università di Bologna ha rescisso il contratto, perché (sono parole delle dichiarazioni ufficiali) “Si può capire che ci sia un’attesa di qualche settimana, forse di qualche mese, ma non certo di anni.”
E tuttavia il dipartimento di Fisica ha annunciato che i test li farà lo stesso, gratuitamente e poi ne divulgherà i risultati. Non resta che aspettare.
Il resto è cronaca di questi giorni. Rossi garantisce che a breve (entro il 2012) potremo comprare l’E-cat e installarlo in casa al posto dello scaldabagno. Non solo ma in queste settimane si stanno definendo tutti i licenziatari nel mondo, quelli cioè che potranno vendere l’apparecchio. Abbiamo anche saputo i costi, che saranno tra 40 e 50 $ a kW per le apparecchiature domestiche e 1500 $ per quelle industriali. I costi di manutenzione e di ricarica infine saranno di alcune decine di euro. Ogni apparecchio verrà venduto con due ricariche, ognuna delle quali dovrebbe durare sei mesi; la sostituzione verrà eseguita dall’utente in maniera molto semplice. Il contenitore vuoto verrà mandato ad uno dei punti vendita dell’E-Cat perché sia ricaricato e restituito. Dunque tutto molto semplice ed efficace.
Nel frattempo i giochi si intrecciano. Gli australiani scettici attraverso Dick Smith hanno offerto un milione di dollari per poter ripetere le prove dello scorso anno con la presenza di loro tecnici, che possano però non solo guardare ma prendere in mano ed esaminare nei dettagli tutto il materiale usato. Rossi ha rifiutato.
I greci della Hyperion stanno cercando anch’essi di scendere in lizza.
La National Instrument che è stata fino a poco fa il partner tecnico di Rossi lo ha mollato e non si capisce chi abbia lasciato chi, come accade spesso quando si rompe un fidanzamento. Le notizie delle ultime settimane porterebbero a pensare che lo stesso Andrea Rossi abbia perduto la proprietà o il controllo della sua azienda che adesso sarebbe in mano ad altri investitori misteriosi.
Insomma un thriller dall’esito per niente scontato.
Quello che è certo è che questa storia finirà con i fuochi d’artificio. Se saranno per aver costretto il mondo scientifico intero a seguire una bufala colossale o se saranno per l’invenzione del millennio con implicazioni non solo tecniche ma anche economiche e ambientali da fantascienza, lo sapremo solo vivendo e aspettando per vedere se nelle vetrine degli elettrodomestici vedremo in bella mostra l’E-Cat di Andrea Rossi.