Su materia condensata, FF e Lenr si stende poi
inevitabilmente l'ombra di grandi società, di settori militari, dei
cosiddetti «interessi forti»; è il loro mestiere esercitare lobbying,
intrusioni e tentare di piegare a loro favore anche organismi tecnici e
scientifici. Ma non siamo ingenui, e non vogliamo accontentarci delle
abituali spiegazioni che per questi «nodi» rimandano in ultima analisi
al «grande vecchio» (finanza, impresa capitalistica, multinazionali,
servizi segreti ecc.) che tutto controlla e regge in concatenazioni
causali che farebbero impallidire il grande Baruch Spinoza
Come, purtroppo, avviene in
Italia, persone di valore rispettate all'estero ed ignorate se non
combattute in Patria, vengono «scoperte» solo dopo la loro scomparsa. È
il caso di Giuliano Preparata i cui lavori vengono pubblicati e
commentati in operazioni editoriali sempre più frequenti. Piuttosto che
pubblicare recensioni abbiamo preferito chiedere a Massimo Scalia di
«parlarci» di Giuliano Preparata.
«Io, io», così avevamo soprannominato Giuliano. Era il corso di
laurea in fisica dei primi anni 60 ed eravamo un po' infastiditi
dall'ingenuo entusiasmo e dalla volontà di protagonismo con i quali
Giuliano Preparata si era presentato fin dal primo anno di corso. Solo
il passare del tempo mi avrebbe fatto rinunciare, ci avrebbe fatto
rinunciare, all'atteggiamento, un po' snob, un po' intellettualistico,
che guarda con occhio critico all'entusiasmo e al protagonismo.
Senza
una buona dose di questi due ingredienti è difficile affermarsi,
combattere per qualche cosa in cui si crede. E Giuliano è stato
sicuramente un combattente; e quell'ingenuità dei vent'anni si è sempre
più rivelata come slancio, curiosità onnivora e vero e proprio amore di
sapere.
Preparata ha percorso tutta la strada che porta alla
notorietà internazionale. Dalla scuola di Fisica fiorentina (i
«Gattini») alle esperienze fuori dal nostro Paese (Harvard, Cern e tante
altre), il profilo scientifico di Giuliano si è solidamente costruito
come quello di un brillante fisico teorico dotato però di grande
sensibilità e attenzione alle problematiche dei metodi e delle misure
sperimentali dei grandi laboratori della fisica delle alte energie.
Giuliano era stato liquidato dal '68 come «forza sana»: con questa etichetta venivano bollati dal
movement
tutti coloro che invece di lavorare per l'«immaginazione al potere» e
contro l'autoritarismo dell'Università e dello Stato pensavano a
studiare o al più proponevano la strada del riformismo. Quando ci
incontrammo, oltre vent'anni dopo, le analogie delle nostre vite ci
fecero sentire più vicini. Inoltre Preparata si era inoltrato in quel
percorso che, nell'arcigna corporazione dei fisici, ma non solo, suona
peggio che un'eresia: essendosi per una vita occupato di fisica teorica
delle alte energie, osava cambiare campo e voleva dir la sua sulla
fisica della materia condensata. Per di più, brandendo argomenti [dalla
termodinamica dell'acqua, con l'evidenza a favore dell'esistenza di
domini di coerenza, alla «fusione fredda» (FF)] che venivano guardati a
dire poco con sospetto.
È questo percorso che porta Giuliano a
mettere per iscritto, è il 1994, la sua teoria sulla coerenza quanto
elettrodinamica (QED) della materia e a dare nuovo impulso alle ricerche
sulla fusione fredda; il libro esce l'anno dopo (1).
È forse bene
rimarcare da subito che la teoria della coerenza QED della materia non è
un fungo o solo una geniale trovata di Preparata. Già nei primi anni 50
Robert Dicke aveva proposto un modello di sistemi atomici accoppiati
con la radiazione, più precisamente un sistema di N atomi indipendenti
su due livelli energetici, per il quale, se investito da una radiazione
di lunghezza d'onda molto superiore alla separazione tra i livelli,
doveva essere possibile una transizione verso un maggiore ordine, la
cosiddetta transizione di fase «superradiante»; e che non ci fosse
l'atteso decadimento esponenziale del gruppo di N atomi così stimolati
veniva spiegato col fatto che l'interazione atomi–radiazione avviene in
modo coerente e collettivo.
Proprio poche settimane prima che
Fleischmann e Pons (F & P) annunciassero l'esito dell'esperimento
sulla «fusione fredda» (23 marzo 1989), Preparata aveva rispolverato
alla
Winter School di Folgaria la «superradianza»; e pochi anni
dopo aveva mostrato come la critica mossa a quella teoria (il non
soddisfare l'invarianza di gauge) fosse infondata, in un articolo
scritto con Mele e Del Giudice (2). E la superradianza ha continuato il
suo percorso nei pascoli della scienza trovando conferme sperimentali e
impieghi teorici anche attuali, ad es. nei sistemi di
quantum dot o nella
Zel'dovich radiation in Astrofisica.
Già,
Emilio Del Giudice. Anche lui, il collaboratore di Giuliano per
eccellenza, ci ha lasciato; ed è senz'altro amicale il ricordo che lo
accomuna a Giuliano, una bella amicizia. Emilio già a partire dai primi
anni 80 si era interessato a comportamenti collettivi e coerenti nei
sistemi biologici seguendo l'insegnamento di Herbert Frölich.
I
sistemi biologici sono composti, in ultima analisi, da elementi animati
da vibrazioni dovute all'agitazione termica della materia. Pur essendo
ogni elemento elettricamente neutro, la sua distribuzione di carica
varia nel tempo generando addensamenti di cariche negative in una sua
regione e quindi positive nella regione da esse abbandonata. Esso si
comporta, cioè, come un dipolo elettrico, cui sono associati un dato
modo di vibrazione e la corrispondente frequenza di oscillazione
elettromagnetica; e con la stessa frequenza irradia, come fosse una
microscopica antenna, una potenza data dalla formula di Larmor per i
moti accelerati di cariche. Si può quindi rappresentare un sistema
biologico microscopico o un suo componente, ad esempio la membrana o un
mitocondrio cellulare, come un sistema di dipoli in oscillazione che
emettono onde elettromagnetiche. Sono però oscillazioni caotiche,
apparentemente non in grado di poter esercitare una qualche azione
distinguibile dal «rumore di fondo».
Frölich, uno dei pionieri della
Fisica dello stato solido, fu tra i primi a ipotizzare che nei sistemi
biologici potrebbe prodursi, sotto certe condizioni, una «condensazione»
dei modi di vibrazione dei dipoli in un unico modo di vibrazione
collettivo (un
dipolo gigante) nello stato più basso d'energia.
Nei sistemi biologici, afferma Frölich, ci si attende un gruppo di modi
di vibrazioni longitudinali in una regione di frequenze tra 10
11 e 10
12 s
-1.
Se questo gruppo viene rifornito di energia a un tasso medio superiore a
una certa soglia, allora l'energia fornita non si disperde del tutto
come calore ma viene immagazzinata nella forma altamente ordinata di
«eccitazioni coerenti». Queste eccitazioni sono stati stazionari
(metastabili) dotati di un elevato momento di dipolo elettrico e di
vibrazioni elettriche coerenti di alta frequenza. Il fenomeno, osserva
Frölich, è considerevolmente simile alla «condensazione di
Bose-Einstein» di un gas a bassissima temperatura (3). È interessante
rilevare che l'ipotesi di Fröhlich ha avuto conferme sperimentali ed è
stata riferimento di molte elaborazioni teoriche decisamente prima della
conferma sperimentale della teoria della condensazione di Bose-Einstein
(1925), che ha dovuto attendere 70 anni (e ha poi fruttato il Nobel,
nel 2001, a Cornell, Ketterle e Wieman che l'avevano riprodotta).
Attribuire
comportamenti coerenti ai sistemi biologici è un fatto decisamente
nuovo, che li assimila, per questo aspetto, ai laser, ai superconduttori
e ai superfluidi. La congettura e gli studi di Fröhlich hanno aperto la
strada a miriadi di ricerche teoriche e sperimentali sul tema della
coerenza nei sistemi biologici, nella materia.
La «fusione fredda»: interazioni collettive e coerenti
E rappresenta anche una nuova cultura scientifica, che trova uno dei
banchi di prova nel dibattito sulla FF e successivamente sulle Lenr (Low
Energy Nuclear Reactions). In questo contesto è «filologicamente»
importante sottolineare un'affermazione di un articolo del '94 che
Giuliano scrive sul «Nuovo Cimento» insieme a Fleischmann e a Pons:
«...Tutti i tentativi teorici che si concentrano soltanto su interazioni
a pochi corpi, sia elettromagnetiche sia nucleari, sono probabilmente
insufficienti a spiegare tali fenomeni. D'altro canto abbiamo buone
indicazioni che le teorie che descrivono interazioni collettive e
coerenti tra componenti elementari che portano a effetti macrosopici di
natura quantistica appartengono alla classe delle teorie possibili per
quei fenomeni» (4).
Infatti chi ha seguito la vicenda, dalla FF a
quelle che ormai da tempo si chiamano Lenr, sa che questo è un vero
punto di inciampo. Anche se l'attuale teoria WLS, di cui parleremo più
avanti, incontra meno ostacoli e «riprovazione» da parte dei gruppi che
dettano legge nel campo della Fisica, rimane una sorta di divario
culturale tra chi è abituato a considerare, come nella Fisica delle alte
energie, urti particella-particella (quel che avviene nel Large Hadron
Collider del Cern) e chi ha fondati motivi teorici e sperimentali per
ritenere che certi fenomeni macroscopici di natura quantistica possano
essere interpretati solo in termini di «interazioni collettive e
coerenti tra componenti elementari».
Resta fuor di dubbio che la
coerenza QED della materia non nasce davvero come oggetto esoterico, ma
si alimenta di teorie, sperimentazioni e idee a tutt'oggi diffuse e
praticate in diversi settori scientifici.
Ed è la teoria che fornisce
a Preparata il valore di «caricamento», cioè il rapporto tra atomi di
Idrogeno e di Palladio, necessario perché nell'esperimento di F & P
si inneschi l'eccesso di calore: 0,95. Già questo fa capire la
principale difficoltà incontrata da tanti ricercatori nel tentativo di
riprodurre quei risultati: realizzare le condizioni per ottenere,
appunto, la soglia al di sotto della quale la FF, o quel che sia,
diventa assai poco probabile.
Giuliano Preparata, che ha girato il
mondo anche in vari laboratori sperimentali d'eccellenza e che, sebbene
fisico teorico, ha sempre coltivato il gusto «galileiano» della
sperimentazione, cerca le condizioni ottimali, anche dal punto di vista
della calorimetria (5), per la replica dell'esperimento di F & P: la
cella elettrolitica, col catodo di Palladio, sede della reazione
Deuterio-Deuterio che ha prodotto l'eccesso di calore in quantità non
compatibili con una reazione chimica, ma solo con una reazione nucleare.
Il 1° marzo 1996 viene da lui annunciata la costituzione insieme a
Emilio Del Giudice di Leda (Laboratorio di elettrodinamica avanzata),
che al logo dell'acronimo unisce l'immagine della fanciulla cara a
Giove; e pochi mesi dopo si vedono i primi risultati degli esperimenti
che continueranno in Leda per tutto il 1997.
Mettere in piedi un
laboratorio e fare degli esperimenti, che implicano il costo di molte
centinaia di milioni di lire, è reso possibile da un gruppo di sponsor,
tra i quali Tronchetti-Provera (allora AD di Pirelli) e Massimo Moratti,
e dall'«azione parallela» di una Diotima, che è Milly Moratti, moglie
di Massimo. È una fisica e una militante ambientalista, che si rivolge
naturalmente a me, un fisico eletto alla Camera per i Verdi. Vado varie
volte a Milano, e ho modo di rincontrare lì il mio vecchio collega
Giuliano.
Quam mutatus ab illo! Lo ritrovavo combattivo come
sempre, ma messo in un angolo a causa delle sue ricerche e della sua
teoria: il peccato mortale di percorrere linee di ricerca che l'
establishment considera «esoteriche», se non «patologiche» come la FF.
L'esperimento
però funziona, c'è una produzione di eccesso di calore con un guadagno
del 100% e una riproducibilità e una continuità, il cui non
conseguimento era stato il maggior ostacolo alla credibilità della
fusione fredda. Niente flusso di neutroni però, una delle
caratteristiche fondamentali di una reazione nucleare; e a me, un po'
preoccupato di questa assenza, Giuliano spiega con un mezzo sorriso che è
uno dei «miracoli» della FF. Solo tre anni prima, infatti, John R.
Huizenga, uno dei commissari che nel 1989 ne aveva respinto il
finanziamento, aveva seppellita la FF come «The Scientific Fiasco of the
Century», indicando ironicamente i tre «miracoli» della FF: la mancanza
di forti emissioni di neutroni, la mancanza di significative emissioni
di raggi γ o X e la penetrazione della barriera colombiana tra cariche
positive.
L'imbarazzo per la mia gaffe, onestamente involontaria e
non senza fondamento, è però immediatamente superato perché bisogna
scendere giù, nell'aula grande del Dipartimento di Fisica
dell'Università di Milano presso cui è insediato Leda.
L'aula,
gremita, accoglie in silenzio ma con rispetto e interesse il seminario
in cui Giuliano illustra metodi e risultati ottenuti; e l'esperimento
verrà validato di lì a poco per la prima volta. Riceverà, la seconda
volta, una bocciatura da un gruppo di tecnici che però odorano molto di
concorrenza. Otterrà infine un'altra validazione da un team capitanato
da Francesco Scaramuzzi, leader del gruppo di ricercatori dell'Enea di
Frascati, che, pochi giorni dopo la pubblicazione dell'articolo di F
& P, aveva rilevato un eccesso di calore anomalo generato
dall'assorbimento da parte del Titanio di un gas di Deuterio.
E qui è
opportuno rilevare che questo esperimento, presentato all'Accademia dei
Lincei il 22 aprile 1989 da Emilio Colombo, presidente dell'Enea,
rappresenta un'altra strada di sperimentazione per la FF, alternativa al
metodo «elettrolitico». È la strada lungo la quale si sono mossi, a
partire dal 1989, Piantelli e Focardi a Siena e a Bologna, e poi, in
tutti questi anni Francesco Celani, costantemente oggetto di tentativi
di chiusura del suo laboratorio e, invece, con molti maggiori
riconoscimenti, Iwamura in Giappone.
Sulla base di un quarto di
secolo e passa di esperimenti e di dibattito sono giunto alla
conclusione che la reazione per contatto diretto, senza cioè la cella
elettrolitica, di Deuterio con un materiale nano strutturato (Titanio,
Nichel, Palladio, Costantana ecc.) sia la via più promettente, anche
perché meno complessa, per ottenere una produzione di energia «pulita»;
che era poi la grande promessa che, incautamente e prematuramente, F
& P formularono in quell'ormai lontano 23 marzo del 1989.
Tornando a Milano e a Leda, gli
sponsor
si ritirarono nonostante i passi avanti fatti e si pose allora il
problema di mantenere in vita la ricerca e il laboratorio della piccola
società. È a partire dall'ottobre del '96 che, nella mia veste di
parlamentare, mi battei perché quell'esperienza così significativa non
andasse perduta. L'Infn, che all'epoca aveva assicurato al Governo «la
disponibilità a considerare e sostenere senza alcuna preclusione
ricerche nel settore della cosiddetta fusione nucleare fredda», non si
mosse. Diversa invece la sensibilità che mostrarono all'Enea il
direttore generale, Renato Strada, e il presidente, Carlo Rubbia; alla
fine riuscimmo con Giuliano a incardinare Leda e il suo
know-how nel contesto delle ricerche sull'energia da idrogeno dell'Enea di Frascati.
Ed
è sicuramente da apprezzare il rigore, e anche un saldo buon senso
friulano, con cui Rubbia affrontò la vicenda, non facendosi condizionare
dai ripetuti pronunciamenti sulla FF come «junk science», magari
avanzati da parte di ricercatori sulla fusione «calda», assai
determinati a non voler spartire il «loro» budget di ricerca. Rubbia
pose la questione nei termini usuali della ricerca scientifica; del
verificare, cioè, se quanto collaudato più volte da Preparata e Del
Giudice con Leda fosse riproducibile nei laboratori di Frascati.
Il Rapporto Enea 41/2002 e la morte di Giuliano
E nel '99 parte l'esperimento (6), che si giova oltre che dei due di
Leda anche dei ricercatori del «gruppo Idrogeno» dell'Enea-Frascati; con
tre anni di tempo a disposizione e un budget di 600.000 euro.
Il 24
aprile 2000 Giuliano muore per la malattia che, senza incrinare la sua
determinazione, lo aveva però minato negli ultimi anni; e sei mesi dopo,
in occasione di un seminario in suo ricordo, Rubbia si impegnerà a
rilevare anche Leda, in modo da evitare il fallimento della piccola
società (7); la ricerca verrà completata e i risultati riportati in un
rapporto interno dell'Enea dell'aprile 2002, il «Rapporto 41» De Ninno
et al.(8).
Che cosa aveva trovato il gruppo De Ninno nella serie di
esperimenti condotti a Enea-Frascati? Innanzitutto che solo se il catodo
di Palladio ha la forma di una striscia stretta e sottile (un film di
spessore 1-2 micron), e non di una placca, il fattore di carico x =
[D]/[Pd] si porta al valore 1 in pochi minuti. La fase «supercritica»,
sempre con x = 1, viene raggiunta in circa due ore e mezza dall'inizio
dell'elettrolisi, dopo questa soglia appaiono le seguenti «anomalie»:
i. l'aumento del contenuto di
42He
(Elio) continua per tutta la fase supercritica fino a un valore, più di
sette volte quello iniziale, che si mantiene poi costante per tutta la
fase di osservazione.
ii. Un incremento di temperatura al catodo che segnala l'atteso eccesso di calore.
Le
due anomalie si presentano insieme, pur nei diversi tempi di risposta;
l'azzeramento del potenziale del catodo (dopo dodici ore di
funzionamento) determina la scomparsa di entrambe le anomalie. Dalla
quantità di
42He prodotta nel corso dell'elettrolisi si può calcolare la potenza prodotta, in base alla conversione
iii) D + D →
42He + γ + 23,8 MeV,
dove il MeV è una misura d'energia usata nel mondo subatomico, pari a 10
6 eV (1eV = 1,60·10
-19 J).
Gli
strumenti utilizzati erano stati sottoposti ad accurati controlli
(taratura, calibratura ecc.), e una particolare attenzione era stata
dedicata alla rimozione totale dei gas non inerti dalla miscela gassosa
prodotta nel corso dell'elettrolisi per garantire l'affidabilità delle
misure delle piccole quantità di Elio prodotte nei vari esperimenti.
Quindi la discrepanza, registrata nel corso dei vari esperimenti
eseguiti e che aumentava con l'aumentare della potenza prodotta, tra la
potenza calcolata in base alla iii) e quella valutata semplicemente in
base all'aumento della temperatura al catodo, poteva essere ricondotta
alle condizioni di non equilibrio termico in prossimità del catodo e
alla conseguente perdita per irraggiamento dalla superficie del film di
Pd.
Era stata addirittura raggiunta la fusione parziale del catodo
(1828 K) senza un aumento apprezzabile della temperatura
dell'elettrolita, cioè senza che quella fusione parziale fosse stata
rilevata calorimetricamente.
Nel «Rapporto 41» i ricercatori potevano perciò affermare che la produzione di
42He
– che ha luogo insieme a quella di eccesso di calore quando x = 1 –
testimonia il carattere nucleare dei processi che hanno avuto luogo
nella cella: una reazione nucleare, la iii), ottenuta invece con
processi puramente elettro-chimici.
Nelle considerazioni conclusive
il gruppo riaffermava, come possibile interpretazione teorica del
fenomeno, la iii) come reazione di fusione, cioè quella, e non poteva
non essere così, fornita da Giuliano Preparata. A cominciare
dall'effetto Cöhn-Ahronov, come l'aveva battezzato Giuliano e che nel
rapporto, in omaggio a lui che non c'è più, veniva ridefinito come
«effetto Preparata»: vale a dire, in termini sperimentali, la
depressione del potenziale chimico del Deuterio nel Palladio (per x >
0,7) e il corrispondente aumento del tasso di caricamento, quando viene
applicato al catodo un potenziale elettrico.
Purtroppo gli stanziamenti al gruppo per procedere con altri
esperimenti non vengono rinnovati, Rubbia non è più presidente
dell'Enea, e viene finanziata un'impegnativa ricerca che, portata avanti
da Vittorio Violante per l'Enea con Stanford Research Institute (Sri),
Naval Research Laboratory Washington D.C., Energetics Technologies Inc.,
Energetics LLC e La Sapienza, consegue risultati importanti ma
parziali, il 65% di riproducibilità all'Enea e il 75% allo Sri.
Il
nome di Giuliano Preparata è indubbiamente legato alla FF, ma la sua
produzione scientifica è stata ben più ampia e di grande rilievo in vari
settori, come illustrò Rubbia nella commemorazione di Giuliano sei mesi
dopo la sua morte (8). Ma a questo punto chi legge può essere
interessato alla domanda: «Com'è finita la storia della FF?».
L'eccesso termico: reazione nucleare, ma non di fusione
Anni dopo, a 20 dall'esperimento di F & P, Peter Hagelstein
eseguì delle stime per calcolare le emissioni di neutroni e raggi X
nella reazione
iii) D + D →
42He + γ + 23,8 MeV,
in
corrispondenza all'energia con cui «nasce» l'atomo di Elio e ai diversi
processi che possono originare quelle emissioni. La conclusione cui
pervenne appare una sostanziale, anche se cauta, conferma della linea di
ricerca e dei risultati ottenuti sull'arco di quindici anni (9), fin
dall'esperimento di McKubre, passato alla storia della FF come M4 ed
eseguito nei laboratori dello Sri nel 1994 [(ma la prima pubblicazione
dei risultati di M4 in sede scientifica è quella citata in nota (10)].
L'esperimento
M4 ha continuato a esser considerato da molti addetti ai lavori come la
più accurata evidenza sperimentale della reazione di fusione iii) (11),
al punto da motivare un esperimento analogo («the case replication
experiment») i cui risultati vennero riportati in un rapporto tecnico
stampato nel 1998 dall'Epri (Electric Power Research Institute),
l'Istituto che era stato lo sponsor della «replication» effettuata
sempre presso lo Sri.
Hagelstein era stato ampiamente coinvolto nel
tentativo di «reinterpretare» M4 e nel «replication experiment» come
conferma della reazione iii); e questa reinterpretazione era stata alla
base di una lettera e di un successivo rapporto presentato al DoE degli
US nel luglio 2004 per sollecitare attenzione e finanziamenti. L'esito
era stato uno «sdoganamento» della FF, ammessa come settore di ricerca
scientifica, ma con nessun riconoscimento per uno stanziamento ad hoc
nel budget federale della ricerca. Si era dipanata una vicenda complessa
e non certo esente da critiche (11) e la riflessione di Hagelstein sui
«constraints» (9) suona perciò anche come una sorta di bilancio e una
difesa.
In definitiva, come consuntivo di due decenni di FF, mentre
appare innegabile in molti esperimenti un'evidenza per la produzione di
un eccesso di calore, assai più di quanto ne possa produrre una reazione
elettrochimica, in concomitanza con la produzione
42He,
non vengono rilevate quantità significative degli altri prodotti in
uscita dalla reazione D – D secondo il canale iii), attesi se fosse una
fusione nucleare: neutroni, raggi X o γ, Trizio, o trasmutazioni (12) di
elementi.
Per giustificare queste assenze e la penetrazione della
barriera coulombiana, i tre miracoli della FF su cui aveva ironizzato
Huizenga nel suo «The Scientific Fiasco of the Century», molti
ricercatori avevano fatto fede al «most surprising feature» della FF
subito segnalato da F & P (13); e avevano continuato a interpretare i
fenomeni della FF sulla base della reazione iii), quella però di gran
lunga meno probabile rispetto ai canali i) e ii) (14). O si erano
accontentati dei risultati senza impegnarsi in interpretazioni teoriche.
Nel
«case replication experiment», mirato a verificare che la reazione che
avviene sia proprio la iii), venivano misurati 32 MeV per atomo di Elio,
cioè una deviazione troppo grande (circa il 40%) rispetto al valore
atteso di 23,8 MeV della iii); quindi una smentita, proprio da quello
che è stato ritenuto l'esperimento più significativo a favore della FF
[e fu questa rilevante discrepanza all'origine del criticato tentativo
di «reinterpretazione» (11)].
E del resto un interrogativo generale ha sempre pesato come una spada
di Damocle sull'interpretazione che la FF sia una fusione nucleare che
avvenga secondo il canale iii): «Poiché questo è il canale più altamente
improbabile – 10
-6 – rispetto agli altri due, equiprobabili
(14), in cui può avvenire la reazione D – D, perché mai la natura
dovrebbe scegliere proprio questa soluzione?».
Insomma, si è di
fronte sicuramente a una reazione nucleare, per l'eccesso di calore
misurato in moltissimi esperimenti in quantitativi superiori di alcuni
ordini di grandezza a quello che può produrre una reazione
elettrochimica, ma non c'è alcuna evidenza sperimentale che comprovi che
la reazione nucleare sia una reazione di fusione, e che sia la iii). E
sul piano dell'interpretazione teorica non emerge una teoria condivisa
in grado di spiegare i processi nucleari che presiedono alla FF.
Una spy story. Parallela?
In ogni caso, questa difficoltà di sistemazione teorica della FF non
ha mai scoraggiato le ricerche militari. I bene informati sostengono
infatti che già alla fine del 1989 la Nasa aveva riprodotto la FF, i
mezzi non le mancavano certo, e le Lenr rientrano, a tutt'oggi, tra le
sue opzioni di ricerca. Così testimonia in termini decisamente positivi
un suo
chief scientist, Dennis Bushnell, nel sito
Nasa Technology Gateway (il quale sito, oltre che per il trasferimento di tecnologie, si qualifica come
A place to purchase Lenr technology). Del resto nel
Technical Report
rilasciato da un laboratorio della U.S. Navy nel 2002, oltre alla vasta
rassegna delle ricerche compiute dalla Marina nel periodo 1989 – 2002,
c'è la conferma di vari esperimenti nei quali oltre all'eccesso di
calore viene rilevata la produzione di
42He, come presumibile effetto di reazioni nucleari all'interno della cella (15).
Questo
interesse dei militari, forse in epoca anteriore alle stesse ricerche
di F & P, e il loro ruolo nella vicenda mi divennero molto più
chiari dopo una lunghissima chiacchierata con Martin Fleischmann a
Venezia, ormai tanti anni fa (non c'era più Giuliano, ma c'era Emilio).
Fleischmann era di passaggio per l'Italia e mi dette la sensazione di
uno che volesse «alleggerirsi» un po' di quella pratica cui, si dice,
sono sottoposti gli scienziati, consenzienti, sudditi di Sua Maestà: la
visita di due distinti gentiluomini, qualche tempo dopo una
partecipazione a una conferenza all'estero o a qualche evento
scientifico, che richiedono quali siano stati i temi affrontati e la
loro importanza per la sicurezza nazionale. Fleischmann richiamò la
nostra attenzione su un vecchio articolo di Bridgman degli anni 30 sugli
effetti di una pressione «ultracritica» su un metallo (Percy W.
Bridgman aveva preso il Nobel nel 1947 proprio per la Fisica delle alte
pressioni) e ci pose con qualche giro di parole la questione di che cosa
potrebbe succedere se il metallo fosse Uranio fissile «caricato» con
Idrogeno e sottoposto a una forte pressione, come quella di una
«percussione». Il seguito della storia è ben raccontato nell'avvincente
libro di Mauro Torrealta e Emilio Del Giudice (16).
Ma lasciando da
parte storie militari, come rispondere a quell'interrogativo di
«Damocle»? Come spiegare, se non va bene la iii), la presenza di Elio
registrata in tanti esperimenti? C'è bisogno di un nuovo punto di vista,
una nuova teoria.
Non credo davvero che possa risuonare come una sorta di «offesa» proporre in un
memorial
di Giuliano una teoria che ha «superato» la sua. Non era davvero lo
spirito dell'uomo, che avrebbe peraltro difeso a spada tratta la sua
«creatura», pronto però a riconoscere gli argomenti dell'altro. Del
resto questa è una mia affermazione, anche un po' provocatoria nei
confronti di tanti ricercatori che nonostante «gli scherni e gli
oltraggi», e non fruendo di una loro spiegazione del fenomeno,
continuano imperterriti a chiamare fusione fredda una reazione nucleare
che sicuramente fusione non è, come mi pare sia stato mostrato al di là
di ogni ragionevole dubbio.
E del resto anche Preparata e Fleischmann
non si erano voluti impiccare all'esclusività della reazione iii) e
avevano elencato a suo tempo gli ingredienti di una teoria possibile nel
quadro di riferimento della QED, come abbiamo già sottolineato (4) e
che è opportuno ripetere: interazioni, sia elettromagnetiche sia
nucleari, collettive e coerenti e non a pochi corpi. Solo così le
interazioni tra componenti elementari possono portare a effetti
macroscopici di natura quantistica, del tutto imprevedibili sulla base
delle conoscenze scientifiche acquisite e dei corrispondenti punti di
vista dominanti.
La teoria Widom, Larsen e Srivastava (WLS)
Il nuovo orizzonte teorico delineato negli ultimi dieci anni sottrae
il discorso delle reazioni nucleari a bassa energia a quel che è ormai
diventato un ridotto, la FF. Se, come spero risulti chiaro, non è
producente intestardirsi sull'interpretazione dell'esperimento di F
& P come reazione di fusione, perché i dati sperimentali non lo
consentono e le teorie proposte spiegano troppo o troppo poco, non è
però certo da buttare quella messe di solidi dati sperimentali
accumulati per vent'anni sulle Lenr, e che non possono essere scartati
come affetti da errore.
D'altro canto, perché nel tentativo di
spiegare i risultati non si è mai invocato il «modello standard», cioè
la teoria delle interazioni elettrodeboli e forti tra tutte le
particelle elementari, note o previste dalla teoria stessa, costruito a
partire dagli anni 60 e universalmente accettato? Il nuovo punto di
vista, la nuova teoria viene proposta a partire dal 2006 da Allan Widom,
Lewis Larsen e Yogendra Srivastava; quest'ultimo poi è stato anche lui
collega universitario e amico di Giuliano e ne ha seguito la sorte di
diffidenza e, addirittura, di pesanti pubbliche «scomuniche, rientrate
poi nel corso del 2013 e delle quali non vale più parlare adesso.
La
teoria WLS (17), (18), (19), fornisce un'interpretazione delle Low
Energy Nuclear Reactions intesa a spiegare non solo quella che abbiamo
chiamato FF nei metalli carichi di protoni o deutoni (
metallic hydride),
sia in cella elettrolitica sia in contatto diretto senza soluzione, ma,
più in generale, fenomeni macroscopici, alcuni presenti in processi del
tutto naturali, che hanno origine proprio dalle Lenr.
È importante
sottolineare subito che, nonostante certi elementi teorici risultino di
difficile «digeribilità» per molti, come vedremo, WLS si sono proposti,
fin dai primi passi, di spiegare i risultati sperimentali senza invocare
una «nuova fisica» al di là del «modello standard» (17).
La teoria
WLS, rifiutata l'ipotesi della reazione di fusione D-D, propone come
«protagonista» delle Lenr l'inversione del decadimento β. Il decadimento
β, il cui studio fruttò il Nobel a Fermi nel 1938, è la transizione da
neutrone a protone con l'emissione di un elettrone e-, la particella β, e
un antineutrino ν
e
iv) n → p + e
- + ν
e.
L'esistenza di ν
e fu prevista teoricamente da Wolfgang
Pauli subito dopo la dimostrazione sperimentale dell'esistenza del
neutrone (1932): infatti, se il decadimento β avesse come esito un
processo a due soli corpi (protone – elettrone), e non a tre come in
iv), si violerebbe la conservazione della quantità di moto.
L'inversione di iv) è
v) ẽ
- + p → n + ν
e,
dove ν
e è il neutrino associato al neutrone, sempre per la conservazione della quantità di moto; ẽ
-
è l'elettrone «vestito», reso cioè massivo da un campo di radiazioni
elettromagnetiche di potenza W. Ciò vuol dire che, in virtù
dell'equivalenza di Einstein E = m c
2, l'elettrone ha
acquistato energia sufficiente per interagire con il protone e produrre
neutroni. Lo schema completo per la v) è quindi
v') W + e
- → ẽ
-, ẽ
- + p → n + ν
e,
e il «rivestimento» dell'elettrone da parte del campo
elettromagnetico che lo rende più massivo è la «rinormalizzazione»,
secondo quanto prevede il modello standard.
Si può pensare al catodo di Palladio della cella elettrolitica di F & P o a un semplice filamento
metallic hydride.
I deutoni, o protoni, si dispongono sulle superficie del metallo in
«patches» in grado di attrarre gli elettroni che fluiscono nel catodo, o
nel filamento, come corrente generata da una differenza di potenziale. I
«patches» oscillano collettivamente e le loro oscillazioni coerenti
iniziano ad accoppiarsi sulla superficie del metallo con le oscillazioni
collettive del plasma di elettroni.
All'aumentare dell'ampiezza
delle oscillazioni dei protoni aumenta il campo elettrico medio della
radiazione da loro emessa, la cui potenza W produce la
«rinormalizzazione» della massa degli elettroni, m = β m
e (β ≥ 1) , maggiore di m
e, massa dell'elettrone «nudo» (cioè libero da interazioni). Al di sopra di una certa soglia β
0 (β ≥ β
0)
(20) gli elettroni del plasma acquisiscono tanta energia da poter
reagire con i protoni (o i deutoni) per creare neutroni attraverso la
v).
I neutroni prodotti sono «ultra-cold», hanno cioè un impulso
estremamente piccolo e quindi una bassissima probabilità di sfuggire
dalle micro-regioni della superficie metallica dove sono stati
originati. Hanno invece enormi sezioni d'urto d'assorbimento da parte
del metallo, cioè un'elevatissima probabilità di produrre localmente
delle reazioni nucleari; e si può mostrare che c'è anche un elevata
soppressione di raggi γ, dovuta agli elettroni divenuti più pesanti
(20), (21), (22).
I fenomeni che hanno cercato risposte per vent'anni
cominciano a poter essere interpretati senza dover ricorrere a
spiegazioni e teorie che vadano oltre quelle scientificamente condivise,
ma possono essere inquadrati, secondo le iv), v) e v'), nell'ambito
della teoria delle interazioni elettrodeboli del «modello standard».
Ai
tre «miracoli» della fusione fredda il modello WLS risponde: i) non c'è
flusso di neutroni «energetici» da attendersi in uscita perché i
neutroni generati tramite la v) sono «ultra cold», non hanno cioè
energia sufficiente per fuggire dalla superficie del catodo in cui
«nascono» e vengono invece assorbiti nel metallo; ii) non ci sono
significative emissioni esterne di raggi γ o X perché questi vengono
catturati dagli elettroni massivi del plasma, che re-irraggiano nella
forma di energia elettromagnetica molto più «leggera» (infrarosso); iii)
non c'è infine il problema di superare la «barriera coulombiana» (che
esisterebbe tra le cariche di ugual segno, i Deutoni, se la reazione
fosse di fusione) perché nella v) ci sono neutroni (e neutrini), che non
hanno carica, e protoni e elettroni, che si attraggono.
Tutto
liscio, allora? Eh no, seppure a opera di elettroni molto energetici
l'inversione della transizione β configurata in v), un protone che
decade in neutrone, non è facile da accettare perché il protone in
condizioni ordinarie è una delle cose più stabili dell'universo. E
quello che è il punto centrale della teoria WLS viene infatti definito
«intriguing possibility» e confutato (Ciuchi et al) (23), provocando
però un'immediata risposta (24).
Le Lenr insomma non sono più «scienza patologica», sono qualcosa con cui ci si deve confrontare.
Last but not least,
le Lenr possono essere sorgenti di energia «pulita», proprio perché non
vengono emesse radiazioni di quella intensità che ci si attenderebbe se
la FF fosse una reazione di fusione. E in effetti, non è morto per
radiazioni nessuno dei molti ricercatori che pure nel corso degli anni
si sono cimentati con gli esperimenti di FF. Invece l'eccesso di calore
che aveva richiamato e richiama tante speranze viene spiegato,
nell'ambito del modello WLS, in termini delle molteplici reazioni
nucleari dei neutroni, prodotti secondo la v), con i materiali al
catodo. Se il riferimento è a una cella elettrolitica, ad esempio, e se
la superficie metallica è rivestita da Litio, l'assorbimento successivo
di neutroni porta da
63Li a
42He, con una rilevante produzione d'energia. La reazione
63Li + 2n → 2
42He + e
- + ν
e
genera infatti una rilevante quantità di calore: Q ≈ 26,9 MeV.
A sua volta, l'Elio può assorbire neutroni e riprodurre Litio, tramite la catena di reazioni che porta a
42He + 2n →
63Li + e
- + ν
e
con Q ≈ 2,95 MeV.
Il
ciclo completo delle reazioni sopra descritte rilascia una
significativa quantità calore di alta temperatura attraverso reazioni
nucleari che non sono reazioni di fusione.
Non c'è più la FF, ma
resta un'indicazione di fondo di Giuliano Preparata, quella
dell'interazione collettiva tra le oscillazioni coerenti del plasma di
protoni e le oscillazioni del plasma di elettroni, che ha luogo sulla
superficie metallica del catodo durante l'elettrolisi. La teoria WLS
aggiunge che è l'energia elettromagnetica conferita agli elettroni dalle
oscillazioni dei protoni a rendere possibile l'accoppiamento con i
protoni per produrre neutroni, secondo lo schema v'). I neutroni così
generati, di bassissima energia, non fuggono dal catodo ma interagiscono
a più riprese con gli elementi leggeri in esso presenti: reazioni
nucleari che producono significativi eccessi di calore, reazioni
nucleari a bassa energia (Low Energy Nuclear Reactions).
Giuliano Preparata e qualche riflessione
La produzione scientifica di Giuliano è stata estremamente vasta,
oltre 400 lavori, un numero impressionante, che spaziano dalla Fisica
dei laser alla Superconduttività, Superfluidità, alla Fisica delle
stelle e dei neutroni, all'Astrofisica dei GRB (
Gamma Ray Bursts);
ovviamente includendo la Materia condensata e la FF di cui abbiamo
parlato. Partito dalla Fisica delle particelle elementari, la scuola
fiorentina di Gatto degli anni 60, Giuliano è andato oltre trasferendone
i concetti e le idee in altri campi con grande creatività e originalità
di pensiero.
Negli anni 70 ha portato contributi teorici
fondamentali per l'unificazione della forza elettromagnetica con la
forza nucleare «debole» nella forza elettro-debole, uno dei pilastri del
«modello standard». Negli anni 80 ha dimostrato il
quark confinement, risolvendo così il problema del confinamento del «colore» nell'ambito della Cromo-Dinamica Quantistica (QCD).
A
partire dal 1987 ha rivolto la sua attenzione alla materia condensata,
affrontando problemi come la teoria dell'acqua liquida, ferro-magneti,
elio 3 e 4 liquido e solido ecc. È proprio in questi studi che Giuliano,
insieme a Emilio Del Giudice, «rivendica» la Teoria Quantistica dei
Campi come teoria fondamentale nello studio della materia, che
sostituisce al raggrupparsi via via di particelle per costituire,
gerarchicamente, i diversi ordini di realtà materiale, i «campi», ovvero
oggetti immateriali che si estendono nello spazio e nel tempo, e che
nei processi di reciproca interazione, là dove il «fenomeno» si
manifesta ai nostri sensi o alla rilevazione degli strumenti, solo là
appaiono in forma corpuscolare (i «quanti» del campo), perché solo là
dove avviene lo scambio di energia-impulso essi si mostrano come unità
indivisibili.
È insomma una concezione opposta a quella della Scuola
di Copenhagen, che è ancora sostanzialmente alla base della teoria della
Fisica delle particelle elementari dalla quale Giuliano era partito. La
teoria quantistica dei campi esige infatti un'interconnessione, in
questo è il suo realismo, una sorta di «solidarietà» antitetica alla
visione di particelle o atomi individuali in un perenne conflitto di
urti «uno contro uno»; e diventa il terreno teorico per il superamento,
come si è accennato, della barriera tra inorganico e vivente. I campi
sono «onde» che si propagano nello spazio e nel tempo, responsabili di
quell'
entanglement quantistico che tanto fascino sembra
esercitare sui neofiti; onde che viaggiano con una loro fase, e quindi
gruppi d'onde coerenti, cioè tutte con ugual fase, sono capaci di
amplificazioni analoghe a quelle registrabili coi laser.
Certo, non mi pare questo a tutt'oggi il
mainstream
del pensiero fisico, ma non sembrerebbe neanche tale da comportare
quell'avversione che si è in realtà scatenata particolarmente contro la
FF, al punto da creare sofferenza (e chi non ricorda qualche risposta
stizzita o
tranchante di Giuliano) nei suoi ricercatori, molto
al di là di quanto un contrasto scientifico possa motivare. Il carattere
«innovativo» che mi pare si possa predicare dell'avversione contro la
FF come
junk science è che mentre sono note forme
«persecutorie» nei confronti di qualche scienziato, anche illustre, il
caso della FF ha riguardato invece molte centinaia di ricercatori e
migliaia di esperimenti, che pure erano riusciti a realizzare. E con un
coinvolgimento significativo anche dei media e della carta stampata con i
rispettivi consulenti scientifici.
Di fronte a tanto contrasto è
stata certo l'amicizia e la solidarietà scientifica con Emilio a
permettere a Giuliano di resistere; e l'amore profondo e attento di
Emilia Campochiaro, la moglie, che perdura anche nella conservazione
della memoria dell'attività scientifica di Giuliano. Sotto la pressione
del «tallone di ferro» della scienza «ufficiale» la reazione di Giuliano
fu quella di vagheggiare anche lui quella «Repubblica delle Lettere»,
partorita dall'Umanesimo italiano e sognata da Galilei, i cui
«abitanti», spiriti liberi amanti della verità, si riconoscevano sulla
base delle competenze senza alcuna barriera ideologica o di religione e
nel reciproco rispetto e nella tolleranza. «Filosofi della natura»,
scienziati diremmo oggi; gente che «aveva il futuro nel sangue», dirà
Snow oltre tre secoli dopo nel suo bel libro «Le due culture».
È vero
però, si potrebbe osservare, che l'unità culturale della comunità
scientifica si è frantumata e parcellizzata proprio a partire dalle
rivoluzioni di sapere, arte e scienza, non solo della Fisica, che hanno
caratterizzato le prime decadi del secolo XX, come Marcello Cini ha
colto nelle sue opere con grande evidenza; e che si sono perciò prodotti
tanti «specialismi ignoranti», sempre Snow, in contrasto con
quell'ideale di società aperta che ricerca la verità e che, a partire
proprio da Galileo, proprio la scienza aveva contribuito a proporre e
creare.
Parcellizzazione del sapere e specialismi ignoranti hanno
sempre più promosso un'attitudine a dare ascolto più alla Doxa
scientifica che non alla bontà delle argomentazioni e dei risultati
sperimentali non collimanti col punto di vista dominante. E su questo
aspetto non sarebbe male che s'impegnasse di più qualche storico della
scienza o qualche epistemologo. Attesa infatti la sostanziale
multidisciplinarietà e interdisciplinarietà sempre più necessarie alla
costruzione del sapere e alla sua lettura, e l'opera di Giuliano ne è un
ottimo esempio, il ritorno all'«ispe dixit» ha percorsi meno lineari,
più tortuosi di quelli che nel mondo accademico e della ricerca sono a
tutt'oggi battuti, magari all'insegna della «titolarità della cattedra».
In
alcune corporazioni scientifiche «forti», come ad esempio quella dei
Fisici, la tendenza ugualmente forte a riservare alla corporazione il
privilegio di definire che cosa sia scienza e che cosa non lo sia
ammette un'interpretazione lineare, almeno in prima approssimazione,
legata in modo abbastanza trasparente alla questione dei budget di
ricerca.
Atteggiamento non molto galileiano, si dirà, ma di sicuro
successo se si pensa alle enormi risorse richieste, e ottenute, e al
carattere veramente globale che hanno assunto certe ricerche; per citare
solo l'ultimo caso «gigantesco», i sette miliardi e mezzo di euro che è
costato l'esperimento per la rivelazione del bosone di Higgs e le
migliaia di ricercatori di tutte le nazionalità che vi hanno ruotato
attorno per vari anni.
Una tale mobilitazione e impegno di risorse
fece calare il sipario, a proposito di budget per la ricerca, sulle
proposte di utilizzare la macchina del Cern come «Ads» (Accelerator
Driven System) per innescare, tramite la «spallazione» di un target, un
«bombardamento» di neutroni inteso a rompere, a ridurre alla ragione i
radionuclidi a vita media lunghissima (decine di migliaia quando non
milioni di anni) presenti nelle scorie radioattive. Un progetto,
quest'ultimo, che all'inizio di questo secolo sembrava pronto al decollo
in tutti i grandi laboratori del mondo, dal Giappone agli Stati Uniti, e
che aveva fatto proclamare nella UE, al Commissario Peter Tindemans, la
nascita della «megascience», altro che la «big science» delle
particelle elementari! Che ancora una volta ha invece vinto, in nome non
solo del suo indubbio fascino, ma perché ormai ben consolidata,
rispetto a un progetto nuovo e quindi con più incognite, perché voluta e
promossa compattamente dall'
establishment della Fisica
mondiale e non da singole voci sia pure illustri, perché occasione di
sostentamento e ambizioni per migliaia di ricercatori e perché ben
conosciuta da decenni anche dai decisori politici.
Già, a proposito
del bosone di Higgs e di epistemologia, che ne è della riproducibilità
dell'esperimento, possibilmente in altri laboratori e magari più di una
volta, che resta uno dei cardini della scienza galileiana e di tutta la
scienza moderna? L'interrogativo non riguarda solo quella che i media
amano chiamare, all'ombra del sorriso compiaciuto di Fisici e Prelati,
«particella di Dio»; quante volte, ad esempio, e dove e secondo quali
modalità verificabili è stato riprodotto l'esperimento sui bosoni
«elettrodeboli» che oltre trent'anni fa fruttò il Nobel a Rubbia?
L'ovvia
difficoltà fattuale della riproducibilità di esperimenti così
«pantagruelici» non sembra abbia innescato una riflessione adeguata su
quali siano le conseguenze sulla prassi scientifica e il pensiero e il
metodo che la ispirano. Si può già registrare, ad esempio, un estendersi
e un intensificarsi dell'«ipse dixit»:
io mi occupo d'altro, ma il mio amico X, che è uno dei massimi esperti del settore mi assicura che...
Il cammino del gambero, insomma, e magari ci sarà pure qualcuno che
dirà che in fin dei conti non c'è bisogno di una ripetizione degli
esperimenti, in nome di quella
logica operativa, proposta da
Bridgman come garanzia contro le «pretese» teoriche che avevano portato
alla crisi della Fisica classica e che viene negata però per avallare
modelli e teorie non contemplati dalla Doxa. E della fatica di
contrastare, almeno in parte, la Doxa tutta la vicenda degli studi e
degli esperimenti di Giuliano sulla materia condensata e la FF è una
testimonianza certa. Un «due pesi e due misure» che si attesta su tutti i
territori presidiati da quelli che Emilio Del Giudice amava chiamare «i
guardiani dell'ortodossia» (25).
Su materia condensata, FF e Lenr si
stende poi inevitabilmente l'ombra di grandi società, di settori
militari, dei cosiddetti «interessi forti»; è il loro mestiere
esercitare
lobbying, intrusioni e tentare di piegare a loro
favore anche organismi tecnici e scientifici. Ma non siamo ingenui, e
non vogliamo accontentarci delle abituali spiegazioni che per questi
«nodi» rimandano in ultima analisi al «grande vecchio» (finanza, impresa
capitalistica, multinazionali, servizi segreti ecc.) che tutto
controlla e regge in concatenazioni causali che farebbero impallidire il
grande Baruch Spinoza.
Da qui insomma l'appello a storici ed
epistemologi perché forniscano elementi di comprensione e di valutazione
sul complesso e l'intreccio dei fatti qui riportati, di «peso e
momento» del tutto generali. E così rilevanti nella vicenda scientifica e
umana di Giuliano Preparata.
Un'ultima parola sul «sogno» di
un'energia «pulita» e disponibile in termini d'uso appropriato: le
decine o al più centinaia di kW per riscaldamento o raffrescamento
domestico degli edifici, per le esigenze di piccole industrie o
stabilimenti artigiani, per motori. So bene che un nuovo interesse,
soprattutto in Giappone, raccoglie intorno alla ricerca fondamentale e
alle possibili applicazioni delle Lenr università e industrie, nella
prospettiva di trasmutazioni che possono riguardare non solo la
generazione di energia ma anche il problema sopra accennato del
condizionamento delle scorie radioattive (26); continuo però a ritenere
il futuro delle Lenr, neanche a troppo lunga scadenza, sta nell'energia.
Più ottimista di me è sicuramente Lewis Larsen, che parla delle Lenr
come della possibile maggior fonte d'energia, pulita e a basso costo, in
uno scenario carbon-free; alla sua pagina online, uscita poche
settimane fa, volentieri rimando (27).
Note
(1) Preparata G. (1995). «Quantum Electrodynamical Coherence in Matter». World Scientific Publishing Co. Singapore.
(2)
Del Giudice E., Mele R. and Preparata G. (1993), Dicke Hamiltonian and
Superradiant Phase Transitions, Mod. Phys. Lett. B 7; 1851.
(3) Fröhlich, H. (1968), «Long-range coherence and energy storage in biological systems», Int. J. Quantum chem. 2: 641- 49.
(4) Fleischmann M., Pons S. and Preparata G.(1994), «Possible Theory of Cold Fusion», Il Nuovo Cimento A. 107 A:143.
(5)
Preparata G., Scorletti M., Verpelli M. (1996). «Isoperibolic
Calorimetry on Modified Fleischmann Pons Cells». J. Electroanal. Chem.
411: 9.
(6) A questa soluzione positiva aveva indubbiamente concorso
una certa simpatia di Rubbia per i Verdi, maturata già vari anni prima
in quegli incontri nei quali Rubbia aveva illustrato, a Gianni Mattioli e
a me, i primi passi del suo «energy amplifier», ancor oggi reperibile
in internet come «Rubbiatrone».
(7) «L'energia “fredda” e le fonti
rinnovabili», (2000). Seminario in memoria di Giuliano Preparata, 24
ottobre 2000, Roma, Sala della Sacrestia, Camera dei Deputati. A cura di
Massimo Scalia. Maggioli Rimini.
(8) De Ninno A., Frattolillo A.,
Rizzo A., Del Giudice E. and Preparata G. (2002). «Experimental evidence
of 4He production in a cold fusion experiment». RT/2002/41/FUS. Enea.
(9)
Hagelstein P.L.(2010). «Constraints on energetic particles in the
Fleischmann–Pons experiment». Naturwissenschaften, 97 (4):345.
(10)
McKubre M., Tanzella F., Tripodi P. and Hagelstein P. (2000). «The
Emergence of a Coherent Explanation for Anomalies Observed in D/Pd and
H/Pd Systems; Evidence for 4He and 3He Production». 8th International
Conference on Cold Fusion. 2000. Lerici (La Spezia), Italy: Italian
Physical Society, Bologna, Italy.
(11) Krivit S.B. «2. The emergence of an incoherent explanation for D-D “cold fusion”». (2010). New Energy Times, 34.
(12)
È l'altra denominazione che si dà tradizionalmente alle reazioni
nucleari o al decadimento β, di sapore volutamente alchemico perché un
atomo di un elemento viene cambiato nell'atomo di un altro elemento.
(13)
Fleischmann M., Pons S. and Hawkins M. (1989). «Electrochemically
induced nuclear fusion of deuterium». J. Electroanal. Chem. 261 (2A):
301–308 and errata in 263
(14) i) D + D → n +
32He + calore ~ 50%
ii) D + D → p +
31H + calore ~ 50%.
(15) U.S. Navy, Technical Report 1862. February 2002. «Thermal and Nuclear Aspects of the Pd-D
2O».
S. Szpak, P.A. Mosier-Boss Editors. Il rapporto risponde anche alle
molte critiche sulla presenza di Elio come dovute alle infiltrazioni
attraverso le pareti di vetro della cella: non è possibile perché
l'esperimento è stato condotto in doppio cieco e nella cella di
confronto non è mai stata rilevata presenza di Elio.
(16) Torrealta M., Del Giudice E. (2010). «Il segreto delle tre pallottole». Edizioni Ambiente, Milano.
(17)
Larsen L., Widom A. (2006). «Commercializing Lenrs: A “Green” Next
Generation Energy Source For Dense, Long Lived Portable Power»,
presented at Defense Threat Reduction Agency/ASCO High Energy S&T
workshop, Lattice Energy Proprietary.
(18) Widom A., Srivastava Y.N.
and Larsen L. (2007). «Energetic electrons and nuclear transmutations in
exploding wires». arXiv: nucl-th/0709.1222v1.
(19) Widom A., Larsen
L. (2007). «Theoretical standard model rates of proton to neutron
conversions near metallic hydride surfaces». arXiv:nucl-th/0608059v2.
(20)
Srivastava Y.N., Widom A. and Larsen L. (2008). «A primer for
electro-weak induced low energy nuclear reactions».
arXiv:nucl-th/0810.0159v1.
(21) Cirillo D., Germano R., Tontodonato
V., Widom A., Srivastava Y.N., Del Giudice E. and Vitiello G.(2011).
«Experimental Evidence of a Neutron Flux Generation in a Plasma
Discharge Electrolytic Cell». Key Engineering Materials. 495:104.
(22)
Widom A. and Larsen L.(2006). «Nuclear Abundances in Metallic Hydride
Electrodes of Electrolytic Chemical Cells». arXiv:cond-mat/0602472.
(23)
Ciuchi S., Maiani L., Polosa A.D., Riquer V., Ruocco G. and Vignati M.
(2012). «Low energy neutron production by inverse β decay in metallic
hydride surface». arXiv:nucl-th/1209.6501v1.
(24) Widom A.,
Srivastava Y.N. and Larsen L. (2012). «Erroneus wave functions of Ciuchi
et al. for collective modes in neutron production on metallic hydride
cathodes». arXiv:nucl-th/1210.5212v1.
(25) Sono almeno 40 anni che
Fisici teorici e Matematici si stanno cimentando nel tentativo, secondo
il desiderio-indicazione di Einstein, di unificare le forze fisiche
presenti in natura: nucleare, elettro-debole (frutto della già ricordata
unificazione tra forza nucleare «debole» e forza elettromagnetica) e
gravitazionale. Quella che più recalcitra è la forza di gravità, la cui
intensità è 10
25 volte minore di quella più vicina, cioè la
forza nucleare debole! La teoria più accreditata come «Teoria completa
dell'Universo» (Stephen Hawking) è quella che si rifà alla «teoria delle
stringhe». Le «dimensioni» di una stringa sono così microscopiche, ≈10
-34
m, che un esperimento per rivelarla direttamente richiederebbe una
macchina acceleratrice di potenza immensamente superiore alla massima
oggi conseguibile (passare da circa 1 GeV a 10
14 GeV); ma
anche rivelazioni indirette richiederebbero «macchine» oggi ben lungi
dall'essere disponibili. La cosa ha indotto, oltre che alla produzione
di un film, a ironici sorrisi e ad aperte critiche (Richard Feynman).
Eppure la «teoria del tutto» sembra soddisfare la richiesta della logica
operativa. Anche in questo caso sembra essere scattata però la logica
del «due pesi e due misure», forse perché a fronte di alcuni nomi di
indubbio prestigio internazionale si schierava la legione dei
«particellari» e delle loro «ragioni».
(26) Iwamura Y., Tsuruga S.
and Itoh T. (2014). Yokohama R&D Center, Mitsubishi Heavy Industries
Ltd., Japan. «Increase of transmutation products by electrochemical
Deuterium permeation through nano-structured Pd multilayer thin film».
JCF15(15th Japan-CFSociety Meeting. Dec.1-2, 2014, Hokkaido, Japan
Iwamura
Y., Kasagi J., Kikunaga H. et al. (2015). Condensed Matter Nuclear
Reaction Division, Tohoku University, Japan; Clean Planet Inc., Japan;
Hydrogen Engineering Application & Development CO., Japan. «The
launch of a new plan on condensed matter nuclear science at Tohoku
University».
(27) «Could the W-L theory be the breakthrough needed to
position Lenr as a major source of carbon-free, environmentally
clean... low cost nuclear energy??», May 29, 2017. Documento
declassificato dall'Amministrazione US e pubblicamente disponibile.
Mettere su Google: Lewis Larsen.
Tags: