mercoledì 23 gennaio 2013

Luigi Maxmilian Caligiuri: Nuovi esperimenti sulla "Memoria dell'Acqua".


_________________
Tutto ciò mi fa pensare alla teoria sugli automi cellulari; ad un'intelligenza superiore che in ultima analisi, è solo l'ultima espressione di una serie infinita/interattiva di "micro-intelligenze"; di "nuclei di informazione dinamica" che ad un certo livello della realtà (meso/microscopico), unendosi tra loro, si traducono in entità fisiche/materiali (passando dai quanti agli atomi ed in seguito dalle molecole ai cristalli di acqua). Come non ricordare, a questo punto, quella famosa frase di Leibniz (espressa nella sua “Monadologia”), che recita così: "Se noi vogliamo dare il nome di anima a tutto quello che ha percezioni e appetizioni (...), tutte le sostanze semplici o monadi create possono essere chiamate anime".
Lo stupore per i risultati di tali esperimenti, non dovrebbe nascere tanto dall’osservazione di determinate mutazioni geometriche di cristalli d’acqua, in presenza di un particolare genere di musica piuttosto che di un altro; la musica è composta da onde sonore (spostamenti di particelle che generano delle oscillazioni), in grado dunque di modificare i parametri ambientali circostanti alla sua sorgente, e di influenzare in ultima analisi ogni singola molecola presente nel suo campo d’azione (l’interazione tra le vibrazioni atomiche dei contenitori e quelle molecolari dell’aria circostante, “ricadrebbero” in ultima analisi sul liquido in esame, modificandone i parametri strutturali di superficie). La non-località quindi, volendo restare con i piedi per terra, in tale contesto potremmo per certi versi escluderla (anche se ovviamente il fenomeno, in sé, può suscitare un certo stupore; soprattutto per le innumerevoli variazioni di simmetria delle varie configurazioni geometriche dei cristalli in esame. Dei cristalli amorfi, teoricamente, avrebbero dovuto rappresentare la norma, in tali esperimenti; ma così non è, con nostro grande stupore). Un discorso analogo lo si potrebbe fare considerando i campi magnetici prodotti dal cervello umano, che rientrano nell’ordine di poche decine di femtoTesla. Ipotizzando una possibile interazione tra tali campi magnetici (seppur “infinitamente” deboli) e le molecole d’acqua, anche in questo caso potremmo escludere l’intervento del principio di non-località. Ciò che invece dovrebbe davvero lasciarci di stucco, sono le variazioni geometriche di tali cristalli, a dipendenza dei termini (nomi/vocaboli) che vengono apposti (scritti) sui contenitori in cui tale acqua è stata riposta. Qui sì, che entra probabilmente in causa il principio di non-località! E che dire poi della lingua con cui tali termini/vocaboli vengono scritti sui contenitori? L’effetto sembrerebbe sortire sempre, indipendentemente dalla lingua con cui i vocaboli sono stati scritti sui vari recipienti! L’intelligenza dell’acqua è tale, da riconoscere qualsiasi lingua/linguaggio usato dagli abitanti della Terra? E se in realtà l’azione delle parole scritte, fosse soltanto un’illusione dovuta semplicemente all'influenza (sulla materia) dei campi magnetici prodotti dalla mente umana? Per verificare ciò, basterebbe scrivere determinate parole sui contenitori con l’acqua da esaminare, e poi dare l’incarico a qualcuno di nasconderli in un luogo lontano dalla nostra presenza , a noi sconosciuto e all’interno di una gabbia di Faraday! Qualora, un simile esperimento con parole scritte sui contenitori e gabbia di Faraday, non producesse alcuna modificazione nei cristalli, andrebbe a cadere l'ipotesi dell'azione delle parole scritte e di conseguenza anche quella di un eventuale legame con il principio di non-località.   [Queste mie riflessioni, sono relative ai primi esperimenti di Masaru Emoto]
Fausto Intilla, 24 gennaio 2013.

sabato 19 gennaio 2013

Realizzato in Italia, il laser che vede attraverso sangue, nebbia e fumo.

Spermatozoo osservato attraverso il liquido seminale grazie al nuovo laser (fonte: CNR)
Spermatozoo osservato attraverso il liquido
seminale grazie al nuovo laser (fonte: CNR)
---------------------------------------------------------
Fonte: ANSA
-------------------
Poter vedere attraverso il fumo eventuali persone prigioniere di un incendio o salvaguardare la sicurezza dei vigili del fuoco, o ancora osservare nel sangue le particelle di lipidi che si depositano e che possono diventare un precocissimo test per riconoscere il rischio di colesterolo. E' possibile grazie al laser realizzato in Italia, nell'Istituto Nazionale di Ottica del Consiglio Nazionale delle ricerche (Ino-Cnr) di Napoli, guidati da Pietro Ferraro.
Il laser, descritto in due articoli pubblicati sulle riviste Lab on a Chip e Optics Letters, riesce a 'vedere' attraverso le sostanze dense e opache, come sangue, latte, fumo e nebbia (chiamate colloidi), impenetrabili ai tradizionali microscopi. Il risultato, ottenuto in collaborazione con l'Istituto sperimentale Lazzaro Spallanzani di Roma, è segnalato fra i migliori 30 contributi nell'ottica del 2012 a livello internazionale.
''Un laser di questo tipo permette, ad esempio, di osservare i processi di sedimentazione dei lipidi, e quindi l'accumulo di colesterolo nelle vene o nei capillari'', spiega la ricercatrice Melania Paturzo. ''Permette inoltre - aggiunge - di vedere attraverso il fumo, consentendo così il monitoraggio degli incendi e di provvedere alla sicurezza di persone in pericolo e vigili del fuoco''. Tutto questo sara' possibile, ha aggiunto, soltanto quando l'apparecchiatura sarà compattata e diventerà trasportabile.
Attualmente non è possibile vedere attraverso i colloidi perche' queste sostanze sono torbide, ossia non trasparenti alla luce. Questo impedisce di poter vedere attraverso tali miscele con le tradizionali tecniche ottiche come il microscopio, limitando la possibilità di studiare diversi fenomeni come la microfluidica o la biologia marina.
''Il principio su cui si basa la tecnica è l'effetto Doppler'', aggiunge Pietro Ferraro: ''se la soluzione colloidale fluisce a una certa velocità, la luce diffusa dalle particelle del mezzo subisce uno spostamento della frequenza, per effetto Doppler, proporzionale alla velocità del mezzo stesso. Se quest'ultima velocità è maggiore di un certo valore di soglia, la frequenza varierà al punto da non contribuire piu' al processo d'interferenza e quindi alla formazione dell'immagine dovuta solo alle parti statiche dell'oggetto''.

giovedì 17 gennaio 2013

Un materiale più duro del diamante, grazie alle dimensioni nanometriche dei nuovi cristalli di nitruro di boro cubico.

Detail-boron-nitride-(wurtzite)-3d-balls
--------------------------
Una collana di diamanti al collo fa senza dubbio un effetto memorabile, ma quando si tratta di durezza ad averla vinta è qualcos’altro. Come spiega un articolo pubblicato su Nature, i cristalli formati dal nitruro di boro cubico (c-BN), un composto formato da boro e azoto molto simile al diamante, possono raggiungere una durezza senza pari. Tutto dipende, infatti, dal diametro delle strutture sitetizzate: tanto più è piccolo, tanto più il materiale è duro.
Il merito della scoperta va all’equipe cinese guidata da Yongjun Tian, fisico degli State Key Laboratory of Metastable Materials Science and Technology della
Yanshan University. I ricercatori conoscevano già la durezza del c-BN che, però, finora era considerata inferiore a quella del diamante. Infatti, i cristalli di nitruro di boro disponibili sul mercato vantano una durezza tra i 33 e i 45 gigapascal (GPa) sulla scala Vickers, contro i 100 GPa del diamante sintetico.
Tian e i suoi colleghi sapevano che il primato imbattuto del diamante dipendeva soprattutto dalle dimensioni troppo elevate dei cristalli di c-BN, intorno al micrometro. A guidarli è stato il principio del
rafforzamento di Hall-Petch, secondo il quale la riduzione delle dimensioni del grano cristallino (l’unità fondamentale di un cristallo) ne accresce la durezza. Ma le difficoltà stavano proprio nel sintetizzare un composto su scala inferiore, quella nanometrica.
Gli scienziati cinesi ci sono riusciti lavorando una massa stratificata di c-BN dalla quale hanno ottenuto cristalli sempre più piccoli sottoponendoli a temperature superiori ai 1800°C. Il risultato finale è stato un cristallo doppio dallo spessore medio di 3,8 nanometri, ovvero quasi un miliardo di volte più sottile dei composti disponibili sul mercato. Una volta sottoposto al test di durezza, effettuato comprimento una punta di diamante sulla superficie, il c-BN nanometrico ha sfiorato un picco di 108 GPa.
Il record del diamante è stato battuto grazie alle dimensioni nanometriche dei nuovi cristalli di nitruro di boro cubico, ma l’impiego industriale di questi composti sembra ancora lontano. Gli scienziati sono invece molto interessati ad applicare il processo di sintesi usato su c-BN direttamente al diamante. Se riuscissero a trovare la forma giusta (vedi Galileo:
Come predire la struttura di un cristallo) i nuovi cristalli sarebbero dei campioni di durezza assoluti.

Riferimenti: Nature
doi:10.1038/nature11728
Credits immagine: Benjah-bmm27/Wikipedia

mercoledì 16 gennaio 2013

"Fiocchi" microscopici di grafene, per decontaminare l'acqua da materiale radioattivo.

Fonte: Sci-X
-----------------
I ricercatori della Rice University e l’Università Statale Lomonosov di Mosca hanno trovato che l’ossido di grafene ha una notevole capacità di rimuovere rapidamente il materiale radioattivo da acqua contaminata. La collaborazione tra gli scienziati ha stabilito che fiocchi microscopici di grafene, dello spesore di un atomo, si legano rapidamente a radionuclidi naturali e artificiali e li condensano nel solido. I fiocchi sono solubili in liquidi e facilmente producibili in massa. I risultati sperimentali sono stati riportati nella rivista della Royal Society of Chemistry, “Physical Chemistry Chemical Physics”. http://pubs.rsc.org/en/Content/ArticleLanding/2013/CP/C2CP44593J
La scoperta, hanno detto, potrebbe essere di aiuto nelle operazioni di decontaminazione di zone colpite da radiazioni nucleari. Potrebbe anche essere impiegata per la pulizia delle acque di scarico contenenti oli o terre rare. .
La grande superficie dell’ossido di grafene determina la sua capacità di assorbire le tossine, ha detto lo scienziato Kalmykov . "Quindi, le proprietà elevate di ritenzione non sono sorprendenti per noi," ha detto. "Ciò che è sorprendente è la velocissima cinetica dell’ assorbimento, che è la chiave per questo uso dell’ossido di grafene”.
Il laboratorio ha testato l’ossido di grafene sintetizzato alla Rice con rifiuti nucleari simulati, contenenti uranio, plutonio e sostanze come sodio, calcio, che potevano influire negativamente sull’assorbimento. Ciononostante, l’ossido di grafene si è dimostrato molto migliore delle argille di bentonite e dei carboni granulari attivati, comunemente usati nella ‘pulizia’ nucleare. L’ossido di grafene ha coaugulato le sostanze di rifiuto in pochi minuti, aggregando rapidamente le peggiori sostanze tossiche. Il processo ha lavorato in una gamma di valori pH.

martedì 15 gennaio 2013

Un micromotore alimentato dal vapore acqueo.

Un micromotore alimentato dal vapore acqueo
                                         Fonte: LeScienze
                                      ------------------------
Sfruttando il gradiente di umidità nell'ambiente che la circonda, una pellicola polimerica complessa si accartoccia e si distende ciclicamente. Questa capacità può essere sfruttata per costruire attuatori utili a muovere arti di microrobot o, accoppiando la pellicola a un materiale piezoelettrico, per produrre energia elettrica sufficiente ad alimentare sensori alle nanoscale.
VAI AL VIDEO: La pellicola polimerica che si muove da sola
 Un film polimerico in grado di muoversi, accartocciandosi e distendendosi ripetutamente, e di generare elettricità sfruttando il vapore acqueo presente nell'ambiente è stato realizzato da un gruppo di ricercatori del Massachusetts Institute of Technology, diretti da Mingming Ma, che ne riferisce in un articolo pubblicato su “Science”.
Nel creare il nuovo materiale, Ma e colleghi si sono ispirati alla struttura a rete del derma animale, in cui le rigide fibre di collagene rinforzano una rete elastica di microfibrille composte dalla proteina elastina per formare un materiale robusto e flessibile. Il film che hanno progettato, e che ha uno spessore di soli 20 micrometri, è costituito da una rete intrecciata di due polimeri dalle caratteristiche differenti. Uno dei polimeri, il polipirrolo (PPy), forma una matrice rigida ma flessibile che serve da supporto strutturale, mentre l'altro polimero, il poliolo-borato, è un gel che si gonfia quando assorbe acqua. In presenza di un gradiente di umidità nell'ambiente, ovvero di variazioni di concentrazione di molecole d'acqua, la combinazione delle differenti caratteristiche dei due polimeri trasforma il nuovo materiale in un attuatore efficace, ovvero in un dispositivo che trasforma una forma di energia in un'altra.
Se la pellicola viene collocata su di un piano umido, il polipirrolo assorbe l'umidità, deformando tutta la struttura. In questo modo però la superficie della pellicola si allontana dal piano umido e inizia a cedere l'umidità accumulata all'ambiente, tornando a distendersi e avvicinandosi nuovamente al piano umido. A questo punto, la pellicola
comincerà nuovamente a deformarsi e grazie a questo fenomeno ciclico, se lasciata libera, inizierà a spostarsi sul piano. Queste contrazioni e distensioni alternate possono anche essere sfruttate per trasformare la pellicola nell'attuatore di un'apparecchiatura, così da muovere per esempio l'arto meccanico di un minirobot.
Un micromotore alimentato dal vapore acqueo
Cortesia Ning Zhang

Come attuatore il nuovo materiale dimostra di avere una grande efficienza: un frammento di pellicola del peso di 25 milligrammi può sollevare un carico pari a 380 volte il suo peso, o può essere usato come “nastro” trasportatore, spostando un carico pari a dieci volte il suo peso.
In alternativa, l'energia meccanica generata dal materiale può anche essere convertita in energia elettrica mediante accoppiamento del film polimerico con un materiale piezoelettrico, che converte stress meccanici in una carica elettrica. Questo sistema può generare una potenza media di 5,6 nanowatt, che possono essere usati in dispositivi microelettronici, per esempio sensori di temperatura e umidità. A una scala ancora più piccola, il film potrebbe alimentare sistemi microelettromeccanici, o MEM, per la nanoelettronica.

lunedì 14 gennaio 2013

Inventata una sorgente portatile di raggi X, poco costosa, che sta nel palmo di una mano.


Fonte: Sci-X
------------------
Un team di ingegneri dell’Università del Missouri ha inventato una fonte compatta di raggi X e di altre forme di radiazioni. La sorgente in sé, che ha la dimensione di una gomma da masticare, potrebbe essere utilizzata per creare scanner a raggi X economici e portatili, per l'utilizzo da parte di medici, nonché per combattere terrorismo, e altro ancora.
"Entro circa tre anni, con la nostra invenzione – hanno detto i ricercatori - potremo avere un prototipo di scanner a raggi X, portatile, L’apparecchio, della dimensione di un telefono cellulare, potrebbe migliorare i servizi medici nelle regioni più remote e povere e ridurre le spese di assistenza sanitaria in tutto il mondo. "
L'acceleratore sviluppato dal team di Kovaleski potrebbe essere utilizzato per creare altre forme di radiazione, oltre ai raggi-X. "Il nostro dispositivo è perfettamente innocuo fino a quando non viene eccitato comunque, anche in funzionamento, provoca esposizioni relativamente basse alle radiazioni", ha precisato Kovaleski.

La 'pillola' che fotografa l'esofago: Funziona grazie a un laser a infrarossi e a sensori.

La capsula per l’endomicroscopia contiene un laser rotante a infrarossi e sensori per registrare la luce riflessa (fonte: Michalina Gora, Ph.D., and Kevin Gallagher, Wellman Center for Photomedicine, Massachusetts General Hospital) 
La capsula per l’endomicroscopia contiene un laser rotante a infrarossi e sensori per registrare la luce riflessa (fonte: Michalina Gora, Ph.D., and Kevin Gallagher, Wellman Center for Photomedicine, Massachusetts General Hospital)
Fonte: ANSA
---------------------
E' grande quanto una pillola un nuovo dispositivo, che una volta 'ingoiato', fornisce immagini che permettono di diagnosticare il tumore dell'esofago. Descritto sulla rivista Nature Medicine, è stato messo a punto da un gruppo coordinato da Gary Tearney, del Massachusetts General Hospital (Mgh).

Il sistema di ‘endomicroscopia’, secondo gli autori, ha diversi vantaggi rispetto alla tradizionale endoscopia: è meno invasivo, più veloce e più efficace nel controllo della malattia chiamata ''esofago di Barrett'', causata dall'esposizione cronica all'acidità di stomaco e considerata un fattore di rischio del cancro dell'esofago. Contrariamente a quando avviene con l'endoscopia tradizionale, non sono necessari nè l'anestesia nè un ambiente.
"Mostrando le immagini tridimensionale della struttura microscopica della mucosa dell'esofago - rileva Tearney - il sistema permette di osservare i tessuti dell'esofago in modo molto più dettagliato rispetto a quanto permette di osservare l'endoscopia ad alta risoluzione".

Il sistema consiste in una capsula contenente una punta laser in rapida rotazione che emette un fascio di luce nel vicino infrarosso e sensori in grado di registrare la luce riflessa dal rivestimento esofageo.
In questo modo vengono scattate delle ‘fotografie’ dei tessuti dell’esofago che vengono inviate a un monitor per visualizzarle attraverso un filo, tramite il quale un esperto controlla anche la capsula. Dopo che la capsula viene ingoiata dal paziente, viene trasportata dalla normale contrazione dei muscoli dell'esofago e quando giunge all'ingresso dello stomaco, può essere tirata indietro con il filo.
Il sistema fotografa l'intero transito della capsula nell'esofago in meno di un minuto e l'intera procedura può essere completata in circa sei minuti.

A confronto, sottolineano gli esperti, la tradizionale endoscopia è molto più invasiva e richiede che il paziente stia nell'unità di endoscopia per circa 90 minuti. Testato su 13 partecipanti non sedati, di cui sei con l'esofago di Barrett e sette in buona salute, l'esame, ha svelato strutture che non è facile vedere con l'endoscopia e ha permesso di distinguere chiaramente i cambiamenti cellulari indici dell'esofago di Barrett.

domenica 13 gennaio 2013

La macchina molecolare più complessa del mondo: Funziona come i robot nei processi industriali.

La macchina molecolare che imita i robot industriali (fonte: Università di Manchester)
La macchina molecolare che imita i robot industriali (fonte: Università di Manchester)
Fonte: ANSA
----------------------------
E' stata realizzata la più minuscola e sofisticata macchina molecolare del mondo, capace di imitare i movimenti delle molecole in natura. Funziona come i robot delle catene di montaggio e potrebbe essere utilizzata per produrre farmaci e nuovi materiali. Il risultato, pubblicato sulla rivista Science, potrebbe avere una portata rivoluzionaria per l’industria.

"Lo sviluppo di questa macchina, che utilizza molecole per creare molecole in un processo di sintesi, è simile alle linee di montaggio robotizzate degli stabilimenti automobilistici”, spiega il coordinatore della ricerca David Leigh, dell'Università britannica di Manchester. “Tali macchine - prosegue - potrebbero rendere il processo di creazione più efficiente ed economico”. Un passo avanti che porterebbe dei benefici a tutti i tipi di aree produttive, “ad esempio - aggiunge - al momento stiamo modificando la nostra macchina per produrre dei farmaci come la penicillina".

La macchina è lunga pochi milionesimi di millimetro (nanometri) e può essere vista solo con strumenti speciali. La sua costruzione è stata ispirata dalle fabbriche molecolari naturali nelle quali si utilizzano le informazioni del Dna per programmare il collegamento dei blocchi molecolari nell'ordine corretto. La più straordinaria di queste fabbriche è il ribosoma, l'organello della cellula che funziona come una 'fabbrica' in grado di sintetizzare le proteine utilizzando informazioni genetiche: è una potente macchina molecolare che si trova in tutte le cellule viventi.

La nano-macchina costruita nell'università di Manchester si basa sulla stessa struttura di funzionamento del ribosoma. Il suo cuore è un anello che si muove lungo un percorso molecolare, raccogliendo i blocchi che incontra lungo il cammino, come in una catena di montaggio, e li collega tra loro in un ordine specifico allo scopo di sintetizzare la nuova molecola desiderata. “Il prototipo attuale è ancora lontano dall'essere efficiente come il ribosoma” prosegue Leigh. Il ribosoma può mettere insieme 20 blocchi di molecole al secondo fino a collegarne 150, “finora abbiamo usato la nostra macchina per collegare insieme solo 4 blocchi, impiegando 12 ore per ciascun blocco”. Secondo gli studiosi è possibile utilizzare in maniera massiccia e in parallelo questo processo di montaggio, “stiamo già usando un milione di milioni di milioni di queste macchine che lavorano in parallelo in laboratorio per costruire molecole". “Il passo successivo – conclude - è quello di iniziare a utilizzare la macchina per realizzare molecole sofisticate con più blocchi, con la possibilità di creare molecole che in natura non esistono, una possibilità molto interessante per il futuro".

Davide Fiscaletti: La non separabilità quantistica. La teoria di Bohm può aprire nuovi orizzonti.

La non separabilità quantistica
Articolo scritto da: Davide Fiscaletti
-------------------------------------
La meccanica quantistica è la teoria fondamentale che sta alla base della moderna visione dei fenomeni naturali. Tuttavia, malgrado gli incontrastati successi sul piano applicativo e le numerosissime conferme sperimentali che si sono accumulate sin dalla sua nascita (avvenuta nella seconda metà degli anni '20 del secolo scorso), questa teoria ha dato luogo ad un acceso dibattito sui propri fondamenti, su quello che dice a proposito del mondo. Ci sono infatti degli aspetti di questa teoria che la fanno sembrare esotica e misteriosa, lontana dal senso comune. Tra questi, l’aspetto più sorprendente è sicuramente rappresentato dalla non località, dalla non separabilità delle particelle subatomiche.
In base a un famoso teorema dimostrato nel 1964 dal fisico irlandese John Stewart Bell (che è considerato da molti esperti nel campo dei fondamenti concettuali della meccanica quantistica come il più importante recente contributo alla scienza), un’esperienza avvenuta nel passato tra due particelle subatomiche crea tra di esse una forma di “connessione” per cui il comportamento di ciascuna delle due condiziona in modo diretto ed istantaneo il comportamento dell’altra indipendentemente dalla distanza che le separa. Per esempio, nel caso di due particelle subatomiche inizialmente accoppiate e che poi vengono separate e allontanate l’una dall’altra, se ad un certo istante invertiamo il senso di rotazione (chiamato dai fisici con il termine “spin”) di una delle due, in quello stesso istante anche l’altra inverte il suo senso di rotazione, indipendentemente dalla distanza che separa le due particelle.
Ai giorni nostri, non è stata trovata ancora alcuna contro-argomentazione significativa in grado di mettere in discussione la validità del teorema di Bell. Tutti gli esperimenti effettuati finora – e particolarmente significativi sono, in questo senso, gli esperimenti di Alain Aspect (1981) al laboratorio di ottica di Orsay, di Yanhua Shih (2001) dell’Università del Maryland e di Nicolas Gisin (2003) dell’Università di Ginevra – hanno confermato il risultato ottenuto da Bell, vale a dire che la non località deve essere considerata una caratteristica fondamentale e irrinunciabile del mondo microscopico, che le particelle subatomiche sono capaci di comunicare istantaneamente a prescindere dalla loro distanza. La comunicazione istantanea, l’intreccio tra le particelle subatomiche – effetto noto anche con il termine tecnico di “entanglement quantistico” - può essere considerato uno dei più grandi misteri della conoscenza umana: pur essendo un fenomeno osservabile e ripetibile, non sembra avere una chiara spiegazione logica.
In questo articolo, ci proponiamo di illustrare un’interessante interpretazione della non località e dell’entanglement quantistico sviluppata dal fisico anglo-americano David Bohm (nota anche come teoria dell’ordine implicito o modello olografico della realtà) e le prospettive che può aprire nella descrizione del mondo fisico (in particolare nello studio delle interazioni fondamentali); successivamente, mostreremo che la non separabilità delle particelle subatomiche può essere spiegata sulla base dell’idea che lo spazio fisico, al livello fondamentale, ha un carattere a-temporale.

 
Le idee di Bohm: potenziale quantico e diversi livelli della realtà fisica:
Nel 1952 David Bohm sviluppò un’interpretazione alternativa della meccanica quantistica, nota anche come teoria dell’onda pilota, in grado di fornire una descrizione causale dei processi atomici e, quindi, di mettere in discussione l’immagine soggettivistica della realtà quale emerge dall’interpretazione standard (cioè la versione della meccanica quantistica proposta nella seconda metà degli anni '20 dai fondatori di questa teoria, gli esponenti delle scuole di Copenaghen e Gottinga, e che è risultata vincente sul piano storico). Una delle idee di partenza fondamentali della teoria di Bohm è il dualismo oggettivo onda-corpuscolo: ciascun oggetto atomico elementare viene visto come costituito da un’onda e da un corpuscolo contemporaneamente, con l’onda che ha il ruolo di guidare il corpuscolo nelle regioni dove la funzione d’onda (che è l’ente matematico con cui nella teoria quantistica viene descritto lo stato di ogni sistema fisico) è più intensa. Per quanto riguarda il dualismo oggettivo, l’energia e l’impulso vanno pensati interamente associati al corpuscolo mentre l’onda deve essere considerata vuota, priva di energia ed impulso.
Nell’ambito della teoria di Bohm, la particella è guidata nel suo moto dall’onda corrispondente sulla base di una legge che ha la forma della seconda legge di Newton della meccanica classica, con l’unica differenza che qui la particella è soggetta, oltre che ad una forza classica, anche ad una forza quantistica, legata ad una forma di energia chiamata potenziale quantico . La caratteristica principale della teoria di Bohm, che consente di fornire una descrizione causale dei processi atomici, è la seguente: qui, la funzione d’onda agisce come un’onda pilota che guida la particella corrispondente, attraverso l’azione del potenziale quantico, nelle regioni dove essa è più intensa. In altre parole, nell’ambito delle idee di Bohm, il moto delle particelle non si manifesta in maniera casuale, ma sotto la guida di un “campo nascosto”, cioè appunto il potenziale quantico, in grado di determinarne la traiettoria. Si tratta di un potenziale nato dal “vuoto” che non opera come i campi elettromagnetici classici, la cui azione dipende dall’intensità e dalla distanza, ma che agisce in maniera istantanea e solo come pura “forma”. La particella si comporta in pratica come una nave che arriva al porto grazie alla potenza dei suoi motori ma sotto la guida di un radar che le indica la strada da seguire. I motori rappresentano il comportamento classico delle particelle nel mondo fisico che conosciamo (per esempio l’azione dei campi elettromagnetici), mentre il radar rappresenta l’azione del potenziale quantico.
Ora, Bohm ha mostrato che è proprio il potenziale quantico a determinare la non località dei processi microscopici, la comunicazione istantanea tra le particelle subatomiche: il potenziale quantico informa ogni particella dove andare, come se dietro alla realtà fenomenica spazio-temporale fatta di materia ed energia, esistesse un piano nascosto che la guida e la unisce a tutte le altre particelle in un’unica simbiosi cosmica. Insomma, particelle distanti anche miliardi di anni luce sono in grado di comunicare tra di loro informazioni in modo istantaneo proprio grazie all’azione del potenziale quantico.
Per interpretare la non località quantistica, nelle sue ricerche degli anni '70 e '80 Bohm introdusse la distinzione tra foreground e background, ossia tra ordine esplicito (esplicate order) ed ordine implicito (implicate order). Secondo Bohm è possibile individuare nella meccanica quantistica due diversi livelli di descrizione dei sistemi fisici: l’interpretazione standard e il suo formalismo ci permettono di rendere conto del foreground, dell’ordine esplicito del mondo macroscopico così come ci appare dalle nostre misure, e che è caratterizzato da manifestazioni locali e frammentarie; quello che avviene nell’ordine esplicito rappresenta tuttavia una proiezione del livello fondamentale, nascosto, cioè il livello del background e dell’ordine implicito, caratterizzato da non località e non separabilità. Bohm suggerisce quindi che nell’indagine della realtà fisica bisogna distinguere tra gli aspetti “avviluppati”, legati al livello nascosto e quelli “dischiusi”, che si manifestano come proiezioni del livello fondamentale.
In base alle idee di Bohm, il comportamento delle particelle subatomiche indica chiaramente che esiste un livello di realtà del quale non siamo minimamente consapevoli. Se le particelle subatomiche ci appaiono separate è perché siamo capaci di vedere solo una porzione della realtà (cioè il foreground o ordine esplicito); ad un livello più profondo esse non risultano “parti” separate bensì sfaccettature di un’unità più profonda e basilare. A questo livello più profondo e fondamentale (che è appunto il background o ordine implicito), tutte le particelle subatomiche sono infinitamente collegate in una sorta di interezza continua. Si è insomma condotti - usando parole dello stesso Bohm – “ad una nuova concezione di totalità indivisa che nega l’idea classica della possibilità di analizzare il mondo in parti esistenti in maniera separata ed indipendente: la realtà fondamentale è l’inseparabile connessione quantistica di tutto l’universo e le parti che hanno un comportamento relativamente indipendente sono solo forme particolari e contingenti dentro questo tutto”.
Per comunicare la sua visione, Bohm usò anche potenti metafore, e tra queste la più famosa è probabilmente la metafora dell’ologramma (per questa ragione l’interpretazione di Bohm della non località quantistica può essere anche definita modello olografico della realtà). Un ologramma è una fotografia tridimensionale prodotta con l’aiuto di un laser, la cui principale proprietà sta nel fatto che ogni sua parte contiene tutte le informazioni possedute dall’ologramma intero. Per estensione, si può parlare di procedimento ologrammatico quando tutte le informazioni di uno spazio a n-dimensioni sono contenute in uno spazio di dimensioni minori. L’analogia tra l’ologramma e i diversi livelli della realtà fisica è la seguente: l’ordine esplicito o foreground è come una rappresentazione olografica dell’ordine implicito, cioè del background. Si può anche dire che, al suo livello più profondo e fondamentale, la realtà nel suo insieme non è altro che una sorta di super-ologramma dove il passato, il presente e il futuro coesistono contemporaneamente, cioè l’universo stesso è una proiezione, un ologramma, il magazzino cosmico di tutto ciò che è, che sarà o che sia mai stato.

 
Le prospettive aperte dal dualismo oggettivo onda-corpuscolo sui diversi livelli della realtà fisica:
Sul piano interpretativo, poiché nella teoria di Bohm la non località dei processi microscopici è legata all’azione del potenziale quantico e il potenziale quantico è strettamente connesso al dualismo oggettivo onda-corpuscolo (con l’onda che ha il ruolo di guidare la particella in esame nel corso del suo movimento), risulta del tutto lecito suggerire la seguente idea: nel livello più profondo e fondamentale della realtà, cioè nell’ordine implicito dell’universo, tutte le particelle subatomiche sono infinitamente collegate tra di loro per mezzo delle onde ad esse associate. Nel nostro livello della realtà, le onde associate alle particelle non sono visibili (il problema dell’osservazione delle onde quantistiche stava particolarmente a cuore allo stesso Einstein, tant’è vero che egli le chiamava scherzosamente “campi fantasma”) ed è proprio per questo che, nel mondo che esperiamo, tutti gli oggetti ci appaiono separati. Ma nel livello più profondo, cioè nell’ordine implicito, i fenomeni naturali hanno un carattere non locale, tutte le particelle sono di fatto collegate tra di loro e si può pensare che le entità che le collegano le une alle altre in una fitta rete interconnessa sono proprio le onde ad esse associate.
Ora, questo modo di visualizzare come vanno le cose nel livello esplicito e in quello implicito consente di aprire nuove interessanti prospettive riguardo l’interpretazione delle interazioni fondamentali: partendo dall’idea che sono le onde associate alle varie particelle a legarle tra di loro in una fitta rete, è possibile fornire una spiegazione causale, intuitiva, dell’origine dei segnali responsabili delle diverse interazioni e si apre la possibilità di trattare tutte le interazioni in uno schema unitario.
Com’è noto, in natura esistono quattro interazioni (o forze) fondamentali: la forza gravitazionale, la forza elettromagnetica, la forza nucleare forte e la forza nucleare debole.
La forza gravitazionale si esercita tra tutti gli oggetti dotati di massa. Essa è espressa da una legge di attrazione direttamente proporzionale alle masse interagenti e inversamente proporzionale al quadrato della loro distanza; ha un raggio d’azione illimitato ed è sostanzialmente l’interazione che prevale a scala, diciamo, umana. La teoria oggi universalmente accettata sulla gravitazione è la relatività generale di Einstein, in base alla quale la gravità viene vista come modifica delle proprietà geometriche dello spazio-tempo. In altre parole, la relatività generale stabilisce che è la struttura dello spazio-tempo che determina le traiettorie dei corpi in movimento (o le loro posizioni, nel caso in cui i corpi sono fermi).
Le forze elettromagnetiche si esercitano tra le particelle dotate di carica elettrica. Esse hanno una struttura formale diversa le une dalle altre, anche se la legge di Coulomb che ne costituisce un caso particolare – la quale stabilisce che tra due cariche elettriche in quiete si esercita un’azione attrattiva o repulsiva a seconda che tali cariche siano di segno opposto o dello stesso segno – ha un andamento con la distanza del tutto simile all’interazione gravitazionale. Per spiegare e descrivere l’interazione elettromagnetica oggi i fisici teorici si basano su una teoria, nota come elettrodinamica quantistica o QED, in base alla quale la forza elettromagnetica si trasmette attraverso oggetti privi di massa, i fotoni.
L’interazione forte tiene legati i protoni e i neutroni all’interno del nucleo atomico (e, in un altro contesto, è quella che si esercita tra i quark, cioè i costituenti elementari di protoni e neutroni). Si tratta di un’interazione molto intensa, ma il suo raggio d’azione è estremamente corto, dell’ordine di metri, il quale la rende praticamente inesistente a distanze maggiori di questa scala (per esempio, su scala atomica). L’interazione forte nella teoria quantistica dei campi attuale (chiamata cromodinamica quantistica o QCD) è mediata dallo scambio di alcuni bosoni , noti come gluoni (di cui ne esistono otto specie differenti).
Infine, esistono un quarto tipo di forze, dette deboli, le quali agiscono disintegrando certe particelle di fatto instabili; per effetto dell’interazione debole, in certi fenomeni radioattivi, queste particelle possono trasformarsi in altre particelle meno pesanti, senza conservare la loro massa. Nella teoria quantistica dei campi attuale le interazioni deboli sono mediate dallo scambio di alcuni bosoni particolari, precisamente tre particelle chiamate W+, W- e Z°.
Ora, sulla base del dualismo oggettivo onda-corpuscolo, possiamo descrivere tutte le interazioni fondamentali partendo da quest’idea: i due oggetti interessati all’interazione vanno di fatto sempre pensati come costituiti da un’onda e da un corpuscolo contemporaneamente, con l’onda che ha il ruolo di guidare la particella corrispondente nelle regioni dove il campo in esame è più intenso. Di conseguenza, nell’ambito del dualismo oggettivo, si può aprire questa interessante prospettiva: visto che sono sempre le onde a guidare le particelle sotto studio nel loro movimento, si può immaginare che, nell’ordine implicito, l’interazione tra due particelle sia trasmessa da un’onda complessiva la quale è data proprio dalla combinazione delle due onde associate alle particelle interagenti. Questo discorso va applicato a ciascuna delle quattro interazioni.
Pertanto, dal dualismo oggettivo onda-corpuscolo si può aprire la seguente interessante prospettiva:
- tutte le diverse interazioni fondamentali si trattano alla stessa maniera, assumendo che siano sempre le onde associate alle particelle interagenti a trasmettere l’interazione sotto studio. Più precisamente diciamo che, nel livello fondamentale della realtà, l’entità che trasmette l’interazione tra due determinate particelle è una sorta di onda complessiva data dalla combinazione delle onde associate a tali particelle.Vediamo ora di approfondire in dettaglio che cosa significa questo risultato, cominciando col considerare l’interazione elettromagnetica.
In virtù delle nostre idee, nell’interazione elettromagnetica tra due particelle l’entità che funge da mediatrice dell’interazione è, nel livello fondamentale della realtà, un’onda la quale può essere vista come la combinazione delle onde associate alle particelle interagenti. Pertanto, se nella QED l’interazione elettromagnetica tra due particelle è trasmessa attraverso lo scambio di un fotone, sulla base del nostro dualismo oggettivo possiamo suggerire l’idea che, nel livello fondamentale della realtà, l’entità che trasmette l’interazione è l’onda del fotone e che quest’onda è proprio data dalla combinazione delle onde associate alle particelle interagenti.
Passiamo adesso all’interazione gravitazionale. Due masse che interagiscono, in base alle nostre idee, devono essere sempre immaginate come costituite ciascuna da una particella e da un’onda contemporaneamente, con le onde che hanno il ruolo di guidare le particelle corrispondenti nelle regioni dove il campo gravitazionale è più intenso, vale a dire in modo tale da provocare l’attrazione delle due particelle stesse (visto che, come sappiamo dall’esperienza, l’interazione gravitazionale è solo attrattiva).
Il dualismo oggettivo onda-corpuscolo consente di fornire un’interpretazione intuitiva del risultato fondamentale della relatività generale, secondo cui la gravità si esplica come modifica della geometria spazio-temporale. Infatti, possiamo ipotizzare che, al livello più profondo della realtà, ci sia un’entità mediatrice vera e propria a produrre la modifica della geometria dello spazio-tempo (e di conseguenza, a trasmettere la gravità), e che quest’entità sia proprio un’onda data dalla combinazione delle onde associate alle particelle interagenti. Questo significa che, nell’ambito del nostro modello interpretativo, la modifica della struttura spazio temporale con cui si esplica la gravitazione può essere ricondotta a un’onda. Insomma, sulla base delle nostre idee, si apre questa interessante prospettiva: il mezzo con cui si trasmette l’interazione gravitazionale, determinando a sua volta una modifica della geometria dello spazio-tempo, è l’onda risultante dalla combinazione delle onde associate alle particelle materiali interagenti.
Vediamo infine l’interazione debole e l’interazione forte. Per quanto riguarda le interazioni deboli, si può assumere che l’entità che trasmette l’interazione sia un’onda associata ad uno dei tre bosoni W+, W- e Z° e che quest’onda sia data dalla combinazione delle onde associate alle particelle interagenti. In modo analogo, possiamo suggerire l’idea che l’interazione forte sia trasmessa da un’onda associata a uno degli otto gluoni che conosciamo e che quest’onda risulti dalla combinazione delle onde associate alle particelle interagenti.
In definitiva, sulla base dell’idea che sono le onde associate alle particelle materiali a legarle, nel livello più profondo della realtà, in una fitta rete interconnessa, si aprono nella descrizione del mondo fisico delle prospettive particolarmente interessanti. E’ possibile fornire una descrizione unitaria delle diverse interazioni: il dualismo oggettivo onda-corpuscolo, al livello fondamentale della realtà, apre la prospettiva di trattare allo stesso modo fenomeni apparentemente diversi, di descrivere alla stessa maniera tutte le quattro diverse interazioni fondamentali. Ed è soprattutto significativo il fatto che dal dualismo oggettivo si prospetta quest’altro rilevante risultato: la possibilità di dare una spiegazione causale, nel livello fondamentale della realtà, del modo in cui nascono i segnali responsabili delle varie interazioni. Nella visione standard (che ci permette di rendere conto dell’ordine esplicito) ciascuna interazione è mediata dallo scambio di un certo segnale specifico, ma non si riesce a fornire una spiegazione veramente causale dell’origine di tale segnale. Adesso invece, sulla base delle nostre idee, nell’ordine implicito si può visualizzare causalmente – almeno sul piano interpretativo - come nasce questo segnale: esso può essere visto come l’onda complessiva che è data da una sorta di combinazione delle onde associate alle particelle interagenti. Insomma, nel livello fondamentale, implicito della realtà, si apre la prospettiva interessante e significativa di descrivere in maniera simile le diverse interazioni fondamentali che esistono in natura, dando un’interpretazione intuitiva (e sempre in un quadro causale) del modo in cui vengono trasmesse tali interazioni.

 
Non località quantistica e a-temporalità dello spazio fisico:
Per affrontare e interpretare la faccenda della non località, della strana forma di connessione delle particelle subatomiche a prescindere dalla loro distanza, in base alla ricerca del mio istituto il discorso può essere espresso anche in una maniera più sottile ed elegante (nonché feconda di ulteriori sviluppi nello studio del mondo fisico). Si tratta di basarsi su un punto di vista alternativo, rispetto a quello standard, circa il teatro in cui avvengono i fenomeni naturali.
L’idea di partenza della nostra ricerca è la seguente. Sulla base della nostra percezione elementare, è oltre le nostre capacità stabilire se il tempo possa essere considerato un’entità fisica reale. Il trascorrere del tempo, infatti, non può essere percepito chiaramente come materia e spazio in modo diretto; noi possiamo percepire solo i cambiamenti chimici, fisici e biologici irreversibili della materia nello spazio fisico (cioè lo spazio in cui esistono gli oggetti materiali). Pertanto, se ci basiamo sulla nostra percezione elementare, possiamo concludere che il tempo esiste solo come flusso di cambiamenti materiali irreversibili che avvengono in uno spazio a-temporale. Il teatro in cui avvengono i fenomeni naturali non è quindi lo spazio-tempo (questo ente fa parte dei modelli matematici dell’universo – in particolare, dei modelli atti a descrivere il livello esplicito - ma non dell’universo stesso): il teatro dell’universo, al livello fondamentale della realtà, è uno spazio a-temporale. Questo è un punto di vista diverso, e per certi versi può anche apparire eretico, rispetto a quello standard, ma è forse più corretto ed appropriato in quanto è più coerente con i fatti sperimentali (vale a dire con il fatto che non c’è nessuna evidenza empirica riguardo al movimento degli oggetti materiali nel tempo).
Ora, il carattere a-temporale dello spazio fisico è in grado di gettare nuova luce sulla non località quantistica. La ricerca del nostro gruppo mostra che lo spazio fisico a-temporale consente di spiegare la comunicazione istantanea tra le particelle subatomiche, permette di spiegare perché e in che senso, per esempio, due particelle che provengono dalla stessa sorgente e che poi si allontanano, rimangono legate da un misterioso legame, perché e in che senso se noi interveniamo su una delle due, anche l’altra risentirà l’effetto istantaneamente a prescindere dalla distanza che c’è tra di esse. Secondo le nostre idee, la connessione istantanea tra due particelle quantistiche quando sono a grande distanza può essere vista come un effetto dello spazio fisico a-temporale. Cioè, è lecito pensare che, al livello più profondo (cioè nell’ordine implicito), sia il carattere a-temporale dello spazio a trasmettere l’informazione tra due particelle subatomiche, prima unite e poi separate e portate a grande distanza, a farle comunicare istantaneamente. La comunicazione tra due particelle quantistiche è istantanea e non locale proprio perché, al livello fondamentale della realtà, è a-temporale e, come tale, non ha velocità. Insomma, visto che l’a-temporalità dello spazio è in grado di spiegare e riprodurre la non separabilità delle particelle subatomiche, nell’ambito della nostra ricerca noi intendiamo suggerire l’idea secondo cui l’ordine implicito introdotto da Bohm altro non è che lo spazio fisico a-temporale.
Inoltre, tenendo conto che nell’ambito della teoria di Bohm la non località quantistica (riguardante il livello fondamentale della realtà) è determinata dall’azione del potenziale quantico, la nostra visione apre la possibilità che ci sia una sorta di corrispondenza tra potenziale quantico e spazio fisico a-temporale, in particolare che il potenziale quantico possa essere interpretato come lo “stato” dello spazio fisico a-temporale in presenza di processi microscopici. Visto che il potenziale quantico di Bohm è il termine che permette di spiegare l’origine della non località quantistica, e visto che il carattere a-temporale dello spazio fisico è in grado di rendere conto e riprodurre la trasmissione di una informazione istantanea, ne deriva che, quando si ha a che fare con un problema quantistico, è del tutto legittimo interpretare il potenziale quantico come lo stato di questo spazio fisico a-temporale. In definitiva possiamo dire che, se si considera un processo atomico o subatomico, lo spazio fisico a-temporale assume lo stato speciale rappresentato dal potenziale quantico, e questo produce una comunicazione istantanea tra le particelle in esame.
In una teoria fisica completa, si può anche pensare che lo spazio fisico a-temporale includa tutti gli oggetti della fisica. La nostra visione apre la possibilità che lo spazio fisico a-temporale rappresenti l’anello di congiunzione di tutti i fenomeni osservati o previsti dalle varie teorie. A questo proposito, le diverse interazioni fondamentali, i diversi campi fisici possono essere interpretati come stati speciali dello spazio fisico a-temporale (e quindi dell’ordine implicito di Bohm interpretato in senso a-temporale) in determinate condizioni, in presenza di certe particelle materiali (e producono delle modifiche nelle proprietà dello spazio a-temporale stesso). Per esempio, in quest’ottica, il campo elettromagnetico creato nello spazio circostante da una particella carica può essere visto come lo stato dello spazio fisico a-temporale in questa determinata situazione.

 
Conclusioni:
In virtù dell’analisi svolta in questo articolo, la non separabilità delle particelle subatomiche può essere spiegata sulla base dell’idea che esistano diversi livelli nella realtà fisica e che, nel livello più profondo, siano le onde associate alle diverse particelle a legarle tra di loro in una fitta rete, in una sorta di interezza continua. Mediante il dualismo oggettivo si aprono prospettive molto interessanti: al livello fondamentale, è possibile trattare in maniera simile le diverse interazioni fondamentali, visualizzando in modo causale l’origine del segnale responsabile di tali interazioni. Inoltre, in base alla ricerca del nostro gruppo, la comunicazione istantanea tra le particelle subatomiche può essere vista come una conseguenza dell’idea che, al livello fondamentale della realtà, lo spazio fisico abbia un carattere a-temporale. E’ lecito pensare che, al livello più profondo, sia il carattere a-temporale dello spazio a trasmettere l’informazione tra due particelle subatomiche, prima unite e poi separate e portate a grande distanza: in presenza di processi microscopici, lo spazio fisico a-temporale assume lo stato speciale rappresentato dal potenziale quantico, e questo produce una comunicazione istantanea tra le particelle in esame. Sotto questo punto di vista, si può concludere che il livello fondamentale della realtà non rappresenta altro che lo spazio fisico a-temporale (e le interazioni tra le varie particelle possono essere viste come stati speciali del livello fondamentale della realtà, inteso come entità a-temporale).

Bibliografia:
.Albert D.Z., Meccanica quantistica e senso comune, Adelphi, Milano, 2000; ed. originale: Quantum Mechanics and Experience, Harward University Press, Cambridge, Massachussets, 1992.
.Albert D.Z., “L’alternativa di Bohm alla meccanica quantistica”, Le Scienze, n. 311, luglio 1994.
.Bellone E., a cura di, Dall’atomo al quark, Le Scienze Quaderni, aprile 2002.
.Bohm D., “A Suggested Interpretation of Quantum Theory in Terms of ‘Hidden Variables’”, Phys. Rev., 85, 1952.
de Felice F., a cura di, Spazio, tempo e relatività, Le Scienze Quaderni, settembre 1997.
.Fiscaletti D., I fondamenti nella meccanica quantistica. Un’analisi critica dell’interpretazione ortodossa, della teoria di Bohm e della teoria GRW, CLEUP, Padova, 2003.
.Fiscaletti D., “La teoria di Bohm può aprire nuovi orizzonti”, Scienza e Conoscenza, n. 7, feb./apr. 2004.
.Fiscaletti D., “La versione di Bohm della meccanica quantistica, KOS, n. 224, maggio 2004.
.Fiscaletti D., “Il fenomeno della non località”, Scienza e Conoscenza, n. 11, 1° trimestre 2005.
.Fiscaletti D., “A-temporal physical space and quantum nonlocality”, Electronic Journal of Theoretical Physics, Vol. 2, Num. 6, 2005.
.Ghirardi G.C., Un’occhiata alle carte di Dio, Il Saggiatore, Milano, 1997.
.Holland P.R., The Quantum Theory of Motion, Cambridge University Press, 1993.
.Licata I., Osservando la sfinge. La realtà virtuale della fisica quantistica, di Renzo, Roma, 2003, 2° edizione.
.Sorli A. e Sorli I., “A-temporal gravitation”, Electronic Journal of Theoretical Physics, Vol. 1, Num. 2, 2004.

Davide Fiscaletti © 2006
Davide Fiscaletti, fisico e scrittore
SpaceLife Institute, San Lorenzo in Campo (Pesaro)

giovedì 10 gennaio 2013

Una schiera di nanoantenne per le immagini del futuro.

Una schiera di nanoantenne per le immagini del futuro
Fonte: LeScienze
------------------------
Per la prima volta un gruppo di ricerca del MIT è riuscito a integrare più di 4000 nanoantenne ottiche su un chip di mezzo millimetro per lato. Si realizza così l’obiettivo perseguito da decenni di replicare nel campo della fotonica i risultati ottenuti con le applicazioni delle onde radio, che grazie alle schiere di antenne in fase hanno avuto un notevole sviluppo. Gli autori prevedono come prime ricadute tecnologiche le tecniche di imaging su vetro ruvido, tessuti biologici o addirittura liquidi in fase turbolenta.
Le schiere di antenne sono molto utilizzate nella ricerca astronomica, perché consentono di ampliare enormemente la risoluzione delle immagini che si potrebbero ricavare con unico strumento. In un articolo pubblicato su “Nature”, a firma di Jie Sun e colleghi del Laboratorio di ricerca elettronica del Massachusetts Institute of Technology, viene ora descritto un microdispositivo che può essere pensato come l’equivalente di 4000 telescopi su un chip di mezzo millimetro per lato. Si tratta di una schiera nanofotonica in fase (NPA) su larga scala in cui sono integrate nanoantenne ottiche sulla superficie di un chip al silicio.
L’idea di utilizzare schiere di antenne con un’unica fonte di alimentazione non è nuova, e può essere fatta risalire alle intuizioni del fisico Ferdinand Braun, premio Nobel nel 1909 ex aequo con Guglielmo Marconi. Sfruttando la relazione tra le fasi delle antenne si riesce infatti a migliorare l’emissione di onde radio in una certa direzione, come è stato fatto nei decenni passati con le trasmissioni televisive e con il radar.
Una schiera di nanoantenne per le immagini del futuro
Ecco come appare, in una rappresentazione artistica, la schiera di 64x64 nanoantenne ottiche integrate sul chip (cortesia Jie Sun)
Questi ottimi risultati nella banda radio hanno spinto a sfruttare lo stesso principio nelle applicazioni ottiche, con l’obiettivo di migliorare anche in questo campo il controllo del fascio e della sua direzione. E in linea teorica, la lunghezza d’onda molto più breve delle radiazioni ottiche (fino a 700 nanometri contro il metro e più delle onde radio) avrebbe dovuto facilitare il compito di realizzare schiere di piccole dimensioni.

Sfortunatamente, due componenti fondamentali del dispositivo, gli accoppiatori, che alimentano ciascuna antenna con un’energia controllata, e gli sfasatori, necessari per controllare la fase di ogni elemento, hanno lunghezze d’onda caratteristiche di
decine o centinaia di volte più grandi, e questo finora ha fortemente limitato le applicazioni: le realizzazioni più recenti hanno dimensioni relativamente ampie e integrano schiere di 4x4 antenne.
Una schiera di nanoantenne per le immagini del futuro
Microfotografia di una singola nanoantenna (cortesia Jie Sun)
Il dispositivo di Sun e colleghi supera questi ostacoli grazie a un’attenta progettazione dei componenti, che ha consentito di realizzare una schiera di 64x64 unità d’antenna su un chip quadrato con un lato di poco più di mezzo millimetro. Ciascun pixel copre una superficie di 9x9 micrometri, con un lato perciò pari ad appena sei volte la lunghezza d’onda ottica.

Le possibili applicazioni del nuovo dispositivo riguardano principalmente le tecniche di imaging attraverso materiali che disturbano la propagazione della radiazione con un forte diffusione, come nel caso di vetri ruvidi o di tessuti biologici. In questi casi è fondamentale la calibrazione locale della radiazione ottica in modo da poter compensare la distorsione causata dal mezzo, una richiesta soddisfatta dalla NPA. Le prestazioni dimostrate dallo studio di Sun e colleghi consentirebbero di andare addirittura oltre, e di ottenere immagini in materiali in cui la diffusione continua a variare nel tempo, come nel caso dei liquidi turbolenti.

Luigi Maxmilian Caligiuri: La freccia del tempo.Passato, futuro ed entropia dell’Universo.

Luigi Maxmilian Caligiuri
Perché il tempo scorre sempre in avanti? Perché ricordiamo il passato e non il futuro? Le nuove cosmologie basate sul vuoto e sulla gravita quantistica potrebbero mettere in discussione la teoria del Big Bang ed i concetti stessi di tempo ed Universo.
Se qualcuno vi dicesse che le caratteristiche dell'Universo in cui viviamo, così meravigliosamente ricco di strutture, processi dinamici ed evolutivi dipendono essenzialmente dal fatto che in questo è possibile trovare molte più uova integre che strapazzate, non pensereste che costui sia un bel po' folle? Be' se aveste risposo affermativamente avreste sbagliato clamorosamente !
Una delle caratteristiche fondamentali del nostro Universo, forse la più importante dal momento che essa determina la possibilità della vita stessa, consiste nell’esistenza della cosiddetta “freccia del tempo”, ossia del fenomeno secondo il quale il tempo (qualunque definizione provvisoria ne vogliamo dare) sembra “scorrere” sempre nella stessa direzione, dal passato al futuro, secondo una sorta di “senso unico”. La freccia del tempo è dunque un aspetto fondamentale di ogni processo nell’Universo ed una sua reale comprensione, fin troppo rimandata e spesso “evitata” dalla fisica fondamentale “ufficiale”, è indispensabile per capire cosa sia l’Universo e come questo si evolverà in futuro.
Ma perché il tempo ci sembra scorrere nella medesima direzione? Perché ricordiamo il passato e non il futuro? Perché la causa precede sempre l’effetto? Senza soffermarci qui su una discussione approfondita sul concetto stesso di tempo e sulla sua caratterizzazione ontologia ed epistemologica nell’ambito della fisica fondamentale (sulla quale torneremo diffusamente in una serie di successivi approfondimenti), per comprendere il significato della freccia del tempo immaginiamo di far rotolare già dal tavolo un bicchiere: con buona probabilità esso, dopo aver urtato il pavimento, si infrangerà in una moltitudine di frammenti di dimensioni e forme diverse che si spargeranno in maniera più o meno casuale sul pavimento. Nel processo l’energia iniziale del sistema si trasforma alla fine in calore disperso nell’ambiente. Supponiamo ora di aver filmato tutta la scena e di riprodurla in senso inverso a quello della registrazione: ciò che vedremmo è un insieme di frammenti di vetro che pian piano si avvicinano riformando il bicchiere intero che risale dal pavimento fino al tavolo e comincia a rotolare. Ovviamente chiunque guardasse il filmato si accorgerebbe immediatamente che tale scena non corrisponde ad alcun processo reale. Il motivo è che sequenze di tale tipo (un bicchiere che si rompe, un organismo che invecchia e muore, un cubetto di ghiaccio che si scioglie nell’acqua tiepida, etc.) costituiscono un esempio di ciò che chiamiamo processo irreversibile, ossia che avviene, con probabilità schiacciante, sempre nello stesso ordine. Ebbene i processi irreversibili costituiscono la base della freccia del tempo, è evidente che il fatto che le cose avvengano secondo un certo ordine (A precede B e non viceversa) ha profondissime implicazioni su tutto ciò che accade nell’universo ed in particolare sul principio di causalità, fondamento della scienza moderna.

Reversibilità, entropia, equilibrio
Una freccia del tempo ci appare dunque del tutto naturale, nondimeno la sua presenza costituisce uno dei più grandi enigmi della fisica, dal momento che se si analizzano in profondità le leggi fondamentali della fisica (quelle cioè che regolano il mondo microscopico o quello ad esso assimilabile) queste appaiono, per quanto ne sappiamo, sostanzialmente reversibili (fatta eccezione per il fenomeno del collasso della funzione d’onda in fisica quantistica che sembra violare tale principio e sul quale ci sarebbe molto da discutere relativamente alla sua interpretazione “ortodossa”) o, per meglio dire, invarianti per inversione temporale. Ciò significa che dato un insieme di leggi dinamiche e la conoscenza delle condizioni di un sistema fisico ad un dato istante di tempo, in linea di principio, è possibile conoscere lo stato del sistema in un qualsiasi istante di tempo nel futuro così come nel passato, dal momento che le leggi dinamiche e dunque l’evoluzione del sistema non distinguono il passato dal futuro ossia non contengono una freccia del tempo. Si pensi ad esempio ad un pendolo che oscilla; se ignoriamo l’attrito (che è appunto costituisce la parte irreversibile del fenomeno) non possiamo stabilire se stiamo osservando un sistema che evolve nel futuro o nel passato; la stessa cosa vale, ad esempio, osservando l’urto elastico di due sfere in un piano orizzontale.
Ma se la freccia del tempo non deriva, per quanto ne sappiamo, dalle leggi della fisica, allora qual’è la sua origine? La risposta fenomenologica a tale domanda è da ricercare nel grado di complessità dei sistemi considerati; infatti il sistema composto dalle due sfere, così come il pendolo sono esempi di sistemi estremamente semplici, ma l’esempio del bicchiere che scivola e si rompe, il cubetto di ghiaccio che si scioglie, un organismo vivente che cresce e, ovviamente, l’Universo stesso sono esempi di sistemi complessi, ossia composti da un enorme numero di particelle soggette ad una moltitudine di interazioni. Ad ogni sistema complesso è possibile associare una grandezza fisica nota come entropia che, in termini elementari, è una misura del numero di modi (microstati) in cui i suoi costituenti elementari (in senso classico e quantistico) possono configurarsi senza modificarne lo stato macroscopico (macrostato). Ad esempio un cubetto di ghiaccio di data forma e dimensioni ha un’entropia inferiore della corrispondente massa d’acqua liquida poiché il numero di modi in cui le molecole d’acqua possono disporsi per formarlo è consistentemente inferiore di quello sufficiente a formare la stessa massa di acqua liquida (nel ghiaccio le molecole devono occupare posizioni ben determinate dalla struttura del solido, mentre nel liquido possono assumere praticamente qualsiasi posizione). Analogamente un uovo intero ha un’entropia molto più bassa dello stesso uovo strapazzato, così l’entropia di una tazza di caffè e di un cucchiaino di zucchero separati ha entropia minore del sistema zucchero sciolto più caffè.
In termini puramente statistici quindi i sistemi caratterizzati da entropia elevata sono anche i più probabili semplicemente perché esistono più modi di realizzarli.
Tutti i processi irreversibili in cui si manifesta una freccia del tempo (l’uovo che si trasforma in frittata, il ghiaccio che si scioglie nell’acqua più calda, un organismo che invecchia e muore, lo zucchero che si scioglie nel caffè, etc.) sono caratterizzati da un comportamento comune: l’entropia aumenta man mano che il sistema si evolve dallo stato iniziale a quello finale.
Sebbene il fatto che l’entropia aumenti può essere interpretata come una questione puramente statistica e insito nelle leggi fondamentali, nondimeno risulta talmente importante da costituire uno dei pilasti della fisica: il secondo principio della termodinamica. Questo principio afferma che l’entropia di un sistema isolato (ossia che è soggetto soltanto ad mutue tra le parti che lo compongono) non può diminuire e determina la tendenza inesorabile dei sistemi complessi a passare da macrostati ad entropia minore a macrostati ad entropia maggiore e che ci appare come il passaggio da ciò che noi chiamiamo passato (entropia minore) a ciò che chiamiamo futuro (entropia maggiore).
L’evoluzione “naturale” di siffatti sistemi tende a raggiungere una condizione di equilibrio: maggiore è il valore dell’entropia più il sistema si trova vicino all’equilibrio; il valore massimo dell’entropia compatibile con le condizioni del sistema caratterizza dunque lo stato di equilibrio di quel sistema.
In tal modo il cammino che porta un sistema verso l’equilibrio definisce una successione di stati che sperimentiamo come flusso del tempo. Una volta che il sistema ha raggiunto l’equilibrio nessuna ulteriore evoluzione è più possibile (almeno in senso macroscopico) e la freccia del tempo si annulla. La formulazione del II principio della termodinamica appare quindi in perfetto accordo con il comportamento dei sistemi complessi osservato nel nostro Universo, ma alla base della sua validità si nasconde un’ipotesi fondamentale, molto spesso ignorata o poco compresa: il sistema deve trovarsi “inizialmente” (e tale richiesta sembra introdurre una sorta di “asimmetria” temporale come vedremo nella seconda parte di questo articolo) in uno stato a bassa entropia, compatibilmente con le condizioni consentite per il sistema stesso. Se così non fosse, questo si troverebbe vicino ad uno stato di equilibrio, ossia non avrebbe modo di evolversi nel tempo. Ma se accettiamo la teoria del Big Bang ed assumiamo che l’Universo si è evoluto per circa 13 miliardi di anni, aumentando sempre la propria entropia e dando origine all’incredibile moltitudine di sistemi oggi osservabili, significa che la sua evoluzione deve essere iniziata a partire da uno stato molto lontano dall’equilibrio, ossia caratterizzato da un valore di entropia eccezionalmente basso, anche considerando che lo stesso stato attuale dell’Universo ha un’entropia molto inferiore a quella che potrebbe avere.

Un inizio molto, forse troppo speciale: l’enigma delle condizioni iniziali dell’Universo
Sfortunatamente il secondo principio da solo non è in grado di spiegare la freccia del tempo: esso afferma che gli stati ad entropia elevata sono più probabili di quelli a bassa entropia ma non ci dice perché lo stato iniziale dell’universo fosse a così bassa entropia (più correttamente ad entropia molto più bassa rispetto a quella che avrebbe potuto avere) ossia uno stato altamente improbabile se consideriamo esclusivamente il punto di vista del II principio. Infatti se lo stato primordiale dell’Universo fosse scelto a caso ci sarebbe stata una schiacciante probabilità di trovarlo in uno stato di entropia elevata vale prossimo all’equilibrio.
L’unico modo di spiegare la freccia del tempo è dunque quello di ammettere che lo stato iniziale dell’universo sia stato un improbabile stato caratterizzato da un valore di entropia particolarmente basso (posizione anche nota come ipotesi sul passato).
Se così non fosse stato, il tempo si sarebbe “bloccato” dando origine ad uno stato molto simile a quello di un gas all’equilibrio termodinamico in cui nulla di interessante si sarebbe potuto sviluppare (e men che meno la vita e la complessità del nostro Universo) tranne alcune prevedibili fluttuazione statistiche più o meno ampie (che pone il serio problema dei cervelli di Boltzmann discusso nel seguito).
In sostanza dunque la freccia del tempo dipende dal fatto che lo stato di partenza dell’universo fosse molto peculiare e non uno stato casuale nel quale non si sarebbe potuto distinguere il passato dal futuro.
Anche i dati sperimentali, se analizzati criticamente, sembrano confermare tale impostazione.
La radiazione di fondo dell’Universo ci fornisce una fotografia dell’universo primordiale e mostra che in prossimità dell’inizio del tempo (ammesso che questo coincida con il Big Bang, cosa peraltro tutta da dimostrare) materia e radiazione erano distribuite in maniera estremamente uniforme. Tuttavia, in generale, uno stato di questo tipo è associato ad un’entropia elevata. Se consideriamo infatti un gas all’equilibrio termico posto in un contenitore, il maggior numero di microstati associati a tale stato è caratterizzato da una distribuzione pressoché uniforme delle molecole del gas nel contenitore (fig. 1).


Figura 1. Evoluzione temporale di un sistema di molte particelle inizialmente distribuito asimmetricamente in un recipiente diviso da un setto rigido.

Pertanto, ad un primo superficiale sguardo, questa uniformità dovrebbe essere il riflesso di uno stato iniziale molto più uniforme che, in una valutazione dell’entropia che non tiene conto della gravità, sarebbe associato ad uno stato ad alta entropia, in contrasto con la richiesta di bassa entropia delle condizioni iniziali.
Ma ulteriori problemi sorgono se si considera l’effetto della gravità (e nello specifico all’ancora sostanzialmente incompresa gravità quantistica), ignorato nell’esempio del gas a temperatura uniforme .
La gravità infatti tende ad aggregare la materia rendendola più grumosa: così in un sistema governato dalla gravità lo stato estremamente più probabile sarebbe rappresentato da un buco nero caratterizzato ha un’entropia enormemente maggiore di quello di una distribuzione uniforme di materia (a differenza di quanto accade in un sistema in cui la gravità non è importante) (fig. 2).


Figura 2. Distribuzione delle molecole in un sistema a molte particelle all’aumentare dell’entropia in assenza ed in presenza della forza di gravità.

Una distribuzione uniforme sembrerebbe quindi ancora più improbabile, allora come mai saremmo stato così “fortunati” da avere uno stato iniziale dell’universo caratterizzato dalla “giuste” condizioni necessarie a garantire lo sviluppo dell’Universo nella forma in cui ci appare oggi?
Il problema di spiegare la freccia del tempo equivale a spiegare lo stato di bassa entropia dell’universo iniziale.
Sembra quasi che il nostro Universo sia stato finemente calibrato in modo da iniziare in uno stato molto distante da quello di possibile equilibrio (ossia di entropia straordinariamente bassa rispetto al valore che avrebbe potuto avere). Ma è possibile spiegare tali specialissime condizioni iniziali come il risultato di un’evoluzione dinamica “naturale” a partire da uno stato generico ed altamente probabile, senza ricorrere a principi antropici a hoc o ad una incredibile quanto improbabile coincidenza o, peggio, ad un miracolo?
Vedremo come le possibili risposte a tali profonde domande implichino una profonda rivisitazione di molte delle attuali convinzioni sulla nascita dell’universo, sulla teoria del Big Bang e sul concetto stesso di tempo in cui un ruolo chiave potrebbe essere rappresentato dalla tanto agognata teoria delle gravità quantistica.
____________________________

Nella prima parte di questo articolo è stato evidenziato come lo stato iniziale dell’Universo dovesse essere estremamente speciale e caratterizzato da un valore di entropia particolarmente basso e come tale circostanza escludesse la possibilità di poter considerare questo come uno stato scelto a caso tra una moltitudine di casi possibili. Da dove deriva tale specialità? E’ una conseguenza “naturale” delle leggi della Fisica o dobbiamo ammettere l’intervento di un Creatore, impegnato a “regolare” finemente tutti i parametri dell’Universo primordiale nel modo “giusto”?
Da dove viene l’Universo? Esiste un “inizio” del tempo? Cosa c’era prima del Big Bang? Da dove vengono le leggi della Fisica? La teoria del Big Bang fa risalire l’origine dell’Universo osservabile ad un evento esplosivo avvenuto da dieci a venti miliardi di anni fa ed assume che tutta la materia dell’Universo fosse già presente al momento dell’esplosione, ma non è in grado di spiegarne l’origine, nè il perché dell’esplosione e le sue modalità, ossia, sostanzialmente non è in grado di spiegare le caratteristiche dello stato iniziale dell’Universo, né tantomeno quel valore di entropia particolarmente basso che doveva caratterizzarlo. Essa risulta inoltre incapace di dirimere la questione dell’orizzonte (consistente nell’estrema uniformità della radiazione di fondo a microonde) e della piattezza (legato alla ridotta curvatura spaziale dell’attuale Universo).

L’universo inflazionario ed il Multiverso
Nel 1995 Alan Guth propose un’idea rivoluzionaria in grado di spiegare contemporaneamente il problema dell’orizzonte e quello della curvatura: l’inflazione, secondo la quale l’universo avrebbe subito, nei primissimi istanti della sua esistenza, un processo di espansione esponenziale a partire da uno stato di falso vuoto (FV).
In fisica il vuoto non coincide con il “nulla” ma con uno stato di energia minima di una data teoria, una cui caratteristica particolarmente importante consiste nella sua energia intrinseca, descritta tramite opportuni campi scalari, ossia funzioni matematiche il cui valore nei diversi punti dello spaziotempo ne determina la densità. Da ciò deriva una delle proprietà più sorprendenti del vuoto quantistico, ossia la sua capacità di generare effetti antrigravitazionali (repulsivi) all’interno della regione di spazio da esso occupata.
L’inflazione è determinata dal decadimento di uno specifico campo scalare, l’inflatone, da uno stato di FV dominato da una forma di super - energia oscura, ad uno di vero vuoto (VV) ad energia minima. Tale fenomeno, di natura quantistica, è simile (ma non identico) al decadimento di una sostanza radioattiva ed è legato al principio di indeterminazione di Heisenberg (effetto tunnel quantistico).
In particolare il decadimento del vuoto quantistico è simile al comportamento dell’acqua bollente: bolle di VV si generano casualmente all’interno del FV e crescono esponenzialmente; l’interno delle bolle è costituito sostanzialmente da VV con tutta l’energia del FV concentrata nelle pareti della bolla che ne determina l’espansione per antigravità. Quando le bolle collidono e si fondono, l’energia del FV accumulata nelle pareti si converte in radiazione e materia, dando origine ad un VV pieno di particelle e radiazione che è altro non è che il BB. Contemporaneamente, il FV tra le bolle si espande anch’esso ma ad un ritmo più elevato rispetto all’espansione delle bolle (fig. 1).


Figura 1. Nascita casuale di bolle di vero vuoto all’interno del falso vuoto in espansione.

Se la frequenza di formazione delle bolle è adeguata e se si tiene conto delle fluttuazioni quantistiche cui è soggetto il campo scalare durante il decadimento, queste, prima di collidere, hanno tempo di espandersi abbastanza per risolvere i problemi cosmologici della piattezza e dell’orizzonte. Ma queste bolle sono ancora circondate da regioni di FV in rapida espansione; infatti il FV non decade mai completamente perché la sua velocità di decadimento è inferiore a quella di espansione (per cui c’è sempre una maggiore quantità di FV disponibile per ulteriore formazione di bolle), dando luogo così alla cosiddetta inflazione eterna nel futuro.
Nell’ambito di tale modello, il nostro universo potrebbe essere contenuto completamente all’interno di una di queste bolle ed il BB non costituirebbe più un evento singolare isolato ma solo uno dei tanti (infiniti) BB che si verificano nell’eternità del futuro; un osservatore all’interno della bolla vivrebbe il “suo” BB come unico e non si accorgerebbe della presenza delle altre bolle (se non in caso di collisione) che evolverebbero come universi a se stanti (potenzialmente caratterizzati da leggi fisiche anche diverse dalle nostre a seconda dei diversi tipi di VV previsti per i campi scalari).
Tale scenario cosmologico viene comunemente indicato con il termine Multiverso, vale a dire una struttura frattale contenente più universi - bolla (anche detti pocket - universe) immersi nello spaziotempo da cui si originano. Nel Multiverso, la domanda su cosa ci sia stato prima del BB ammette la semplice risposta: “altri BB”. Tuttavia se l’inflazione ed il Multiverso che essa implica sono in grado di risolvere alcuni problemi di calibrazione fine del nostro universo osservabile (piattezza, orizzonte, uniformità ed isotropia su larga scala) esse non rispondono alla domanda fondamentale sull’estrema specialità ed improbabilità delle condizioni iniziali (ed in particolare dell’entropia iniziale). E’ necessario pertanto cercare spiegazioni più profonde in grado di andare oltre l’inflazione.

Possibili soluzioni al problema dell’entropia iniziale: i baby universi e gli stati coerenti del vuoto quantistico
Quanto sono “naturali” le condizioni iniziali che innescano l’inflazione? Abbiamo visto che se lo stato iniziale dell’universo fosse stato scelto a caso, con schiacciante probabilità esso sarebbe stato molto simile ad uno spazio vuoto, caratterizzato da alta entropia e da un valore basso e positivo di energia del vuoto (spazio di de Sitter) soggetto a fluttuazioni quantistiche più o meno ampie. Dunque, la probabilità che una di queste dia origine ad una piccola regione dominata da una forma di super energia del vuoto (FV) caratterizzata dalle condizioni giuste da innescare l’inflazione è estremamente bassa. Da dove derivano allora tali condizioni?
L’unico modo per giustificare tali condizioni senza rinunciare alla reversibilità delle leggi della fisica (che appaiono tali ad un livello fondamentale) è di ammettere che il BB stesso non rappresenti affatto l’inizio del tempo del nostro universo osservabile (o degli altri eventuali universi bolla nel Multiverso).
Del resto la teoria del BB, basata sulla relatività generale (RG) e sulla meccanica quantistica (MQ), non afferma affatto che il tempo non possa esistere prima del BB, in quanto in corrispondenza all’istante iniziale, costituito da una singolarità (volume nullo e densità, temperatura, pressione e curvatura dello spaziotempo infinite), la teoria stessa perde di significato, richiedendo la formulazione di una teoria della gravità quantistica (GQ).
Nella GQ (in particolare nella versione a loop) il tempo non ha un inizio, anzi il tempo stesso non esiste a livello fondamentale, ma emerge su scala macroscopica come descrizione media dell’evoluzione dei sistemi complessi, così come la temperatura descrive macroscopicamente il moto medio delle singole particelle di un gas (ipotesi del tempo termico).
Se il tempo non esiste a livello di GQ ed il BB non è l’inizio del tempo ma un qualunque “istante” di una storia eterna, rimane il problema di spiegare come mai in questo istante, qualunque esso sia, l’entropia dell’universo risultasse così bassa e come mai, di conseguenza, non viviamo in uno spazio di de Sitter caratterizzato da alta entropia che, essendo uno stato prossimo all’equilibrio, non avrebbe una freccia del tempo.
Come è possibile che lo stato più probabile possibile, quello di de Sitter, possa decadere in uno stato a più alta entropia che contempli la possibilità dell’inflazione? Una soluzione è rappresentata dalla generazione dei cosiddetti universi baby.
La GQ prevede che, oltre alle fluttuazioni quantistiche dei campi (come l’inflatone), sia lo stesso spazio tempo a fluttuare, piegandosi, dilatandosi ma soprattutto dividendosi in più parti, di dimensioni estremamente ridotte, capaci di separarsi da un universo più grande ed evolversi come universi a se stanti: gli universi baby.
Questi sono diversi dagli universi - bolla della teoria dell’inflazione, che rimangono spazialmente connessi allo spaziotempo di origine, poiché risultano disconnessi dall’universo genitore (fig. 2). Nella formazione degli universi baby l’inflatone può trovarsi in uno stato iniziale di VV, caratterizzato da bassa densità di energia ed alta entropia, e, in seguito a fluttuazioni quantistiche (effetto tunnel), “saltare” in uno stato di FV a densità di energia maggiore ma entropia minore, creando, all’interno di piccole regioni dello spaziotempo di partenza, le condizioni di innesco dell’inflazione per formare un minuscolo universo bolla in espansione.


Figura 2. Creazione di universi baby per fluttuazioni quantistiche di una piccola porzione del vuoto di de Sitter.

A questo punto intervengono le fluttuazioni quantistiche dello spaziotempo, previste dalla GQ, che determinano una protrusione della porzione di spaziotempo che dà origine una strozzatura sotto forma di cunicolo spazio temporale (wormhole) la quale, essendo instabile, si dissolve in breve tempo disconnettendo il baby universo. Quest’ultimo, in presenza di un campo inflatonico adeguato, segue la storia della teoria del BB sviluppandosi come universo autonomo e, virtualmente, senza limiti. Il microscopico universo baby, inizialmente dominato da super energia del vuoto, è caratterizzato da un valore di entropia particolarmente basso, mentre l’universo “genitore” non ha mutato il suo valore di entropia dal momento che il nuovo nato ha energia pari a zero (come previsto dalla teoria della RG trattandosi di un universo chiuso), l’entropia totale del sistema universo baby + universo genitore è dunque aumentata (in accordo con il secondo principio della termodinamica). Di conseguenza, nell’ambito del multiverso, non esisterebbe uno stato di equilibrio, in quanto l’entropia avrebbe sempre modo di crescere tramite il meccanismo di creazione di universi baby. Ciò significa che non sarebbe necessario scegliere lo stato iniziale con particolare accuratezza poiché qualsiasi stato si consideri come iniziale, aspettando abbastanza a lungo, questo evolverà verso lo stato caratterizzato da maggior entropia ossia uno spazio vuoto di de Sitter con formazione di universi baby che, a loro volta, saranno soggetti ad inflazione e successivi BB locali con produzione di radiazione e materia. In un tale contesto cosmologico, ovviamente, l’emergere di una freccia del tempo sarebbe oltre che naturale, inevitabile e coerente con il II principio della termodinamica.
Un tale Multiverso avrebbe inoltre il vantaggio di essere totalmente simmetrico rispetto all’inversione di qualsiasi coordinata temporale arbitraria dando origine, nel passato, ad universi baby nei quali la freccia del tempo locale punta in direzione opposta a quella dei baby universi del futuro (fig. 3) senza che ci sia violazione della teoria della relatività dal momento che tra questi non è possibile alcuna forma di comunicazione. La fondamentale importanza teorica di un tale approccio risiede inoltre nel fatto di non richiedere che lo stato “iniziale” (che ora indica un generico istante nella storia del Multiverso) abbia un valore di entropia particolarmente basso, dal momento che, qualunque sia tale valore, alla fine esso evolverà verso la configurazione di spazio vuoto + universi baby.
Tuttavia, per quanto plausibile, lo scenario sopra delineato presuppone la conoscenza degli stati del vuoto associati alla GQ che oggi non possediamo ancora. Una proposta teorica alternativa, alla quale in particolare lo scrivente sta lavorando, riguarda la possibilità di estendere la teoria della coerenza elettrodinamica quantistica, già applicata con successo alla materia condensata, a stati coerenti del vuoto quantistico per spiegare la bassa entropia dello stato iniziale del nostro universo osservabile. Un sistema coerente, non chiuso, può infatti assorbire energia a bassa entropia dall’ambiente circostante abbassando così il suo valore di entropia. In uno stato iniziale di vuoto quantistico una porzione molto piccola di spazio può, per fluttuazioni quantistiche, porsi in uno stato supercoerente, diminuendo la propria entropia a scapito dell’ambiente circostante, portandosi contemporaneamente in uno stato energetico di FV, dal quale potrebbe scaturire l’inflazione ed il successivo BB della cosmologia tradizionale.


Figura 3. Frecce del tempo negli universi baby nati dal vuoto di de Sitter. L’entropia totale aumenta sempre a partire da un istante generico iniziale caratterizzato da un valore di entropia qualsiasi. L’evoluzione è simmetrica nel passato rispetto al futuro

Universi dal nulla, il significato del tempo e la realtà della leggi della Fisica
Il quadro teorico sopra delineato è basato sull’effetto tunnel quantistico. Questo permette la creazione, dal “nulla”, di baby universi; lo stato “precedente” al tunneling è uno stato privo di materia, di spazio ma anche di tempo (in senso macroscopico) in quanto la misura del tempo presuppone il cambiamento. Ma tale stato non può essere uno stato di nulla assoluto semplicemente perché il suo decadimento non può che essere regolato dalle leggi stesse della fisica. Ma allora cosa determina il tunneling? Per quanto sembri paradossale la risposta a tale domanda è che non c’è bisogno di alcuna causa dal momento che la causalità presuppone un prima (causa) ed un dopo (effetto) che non possono esistere in assenza di tempo. Uno degli aspetto più paradossali della fisica quantistica è proprio la non necessità causale di molti processi fisici (quali ad esempio, il decadimento radioattivo: se si aspetta un certo tempo l’atomo decadrà ma non c’è alcuna causa specifica che determini il decadimento in quel preciso istante). Nell’eternità del nulla non ci sono istanti di tempo ed una fluttuazione quantistica può avvenire senza una specifica causa. Tutto ciò porta a riconsiderare profondamente il concetto di tempo e la sua esistenza a livello fondamentale; la GQ (ed alcune formulazioni della teoria delle stringhe) fa a meno di tale concetto, almeno nella sua accezione macroscopica, ma esistono anche altre formulazioni cosmologiche che fanno uso ad esempio di un tempo puramente matematico (immaginario) detto tempo euclideo, slegato da un diretto significato fisico, fino a concezioni più radicali, ed estremamente interessanti, che negano anche l’esistenza del tempo a livello macroscopico (come la teoria degli “Adesso” di Barbour). Nondimeno rimane aperto un problema ancora più profondo, forse il più fondamentale di tutti: se il tempo, lo spazio e la materia - energia non esistono a livello fondamentale, cosa è la realtà? Sicuramente, ad un livello più fondamentale non possiamo che trovare le leggi stesse della fisica ossia, in ultima analisi, delle strutture puramente matematiche che godrebbero di un’esistenza indipendente dal mondo fisico che esse stesse determinano; ma allora dove sarebbero scritte tali leggi? Forse queste risiedono proprio nella nostra mente, o piuttosto in una mente cosmica di cui riusciamo a condividere un minima parte. Non abbiamo ancora una risposta ultima a tale domanda, che forse scaturirà da una coerente Teoria del Tutto, ma certamente il fatto di essere giunti a porsela costituisce, di per sé, uno dei più grandi risultati di quell’immensa avventura umana che è la ricerca scientifica e della sua capacità di spingersi fino agli estremi confini della nostra immaginazione.