mercoledì 30 settembre 2009

Un legame subdolo fra terremoti lontani.

Fonte: Le Scienze
I risultati di una ricerca ventennale indicano che la resistenza di una faglia e il rischio sismico a essa collegato possono essere influenzati da eventi che avvengono anche dall'altra parte del globo.
Terremoti di grande intensità che avvengono in regioni remote sono in grado di esercitare effetti negativi sulla capacità di "tenuta" di faglie che si trovino anche all'estremo opposto del globo. E' questa una delle più significative scoperte di una ricerca pubblicata su "Nature" proprio all'indomani dei terremoti che hanno colpito le Samoa e Sumatra. Com'è ben noto, la possibilità di prevedere i terremoti si è sempre scontrata con la complessità che caratterizza l'attività sismica del pianeta, una complessità talmente elevata da nascondere le relazioni che potrebbero esserci almeno fra alcuni di essi.Ora, a conclusione di uno studio iniziato oltre vent'anni fa, un gruppo di geologi della Carnegie Institution, della Rice University e dell'Università della California a Berkeley è riuscito a individuare una "subdola" e sfuggente relazione che li può collegare. Paul Silver, Taka'aki Taira, Fenglin Niu e Robert Nadeau, i coordinatori dello studio, sono riusciti infatti a monitorare sottili cambiamenti nella resistenza di una faglia profonda, un fattore centrale per il verificarsi dei terremoti che finora però non era possibile misurare dalla superficie terrestre. Con sismometri di altissima precisione i ricercatori sono infatti riusciti a osservare la presenza di piccoli progressivi cambiamenti nelle onde sismiche che si propagano lungo la zona della faglia di San Andreas, particolarmente nella regione circostante Parkfield. Questi cambiamenti sono indice di un indebolimento della faglia e corrispondono a periodi di aumento della frequenza di lievi terremoti lungo la faglia."I terremoti si verificano quando una faglia cede, o a causa dell'aumento dello stress o a causa dell'indebolimento della faglia stessa. I cambiamenti nella resistenza della faglia sono molto più difficili da misurare dei cambiamenti nello stress, specialmente per le faglie profonde. Il nostro risultato apre eccitanti possibilità di monitoraggio del rischio sismico e di comprensione delle cause dei terremoti", ha spiegato Taira.La sezione della faglia di San Andreas studiata dai ricercatori, quella in prossimità di Parkfield, è per i geologi un "sorvegliato speciale", tanto che si sono dotati di una estesa e sofisticata rete di sismometri di ultima generazione e di altri strumenti di rilevazione di svariati parametri geofisici. Le registrazioni relative ai numerosi piccoli terremoti che interessano la regione hanno in particolare rivelato che all'interno della zona di faglia esistevano aree con fratture riempite di fluidi. Ciò che ha attirato l'attenzione degli studiosi è il fatto che di tanto in tanto queste aree si spostavano leggermente. E che proprio durante questi periodi, le serie di piccoli e ripetuti terremoti diventavano più frequenti, un fatto che indicava un indebolimento della faglia. "Il movimento del fluido in queste fratture lubrifica la zona di faglia e quindi la indebolisce", spiega Niu. "Lo spostamento complessivo dei fluidi è di appena dieci metri a una profondità di tre chilometri, e quindi sono necessari sismometri particolarmente sensibili per rilevare questi cambiamenti."I ricercatori hanno anche notato che in due occasioni questi spostamenti si sono verificati dopo che la zona di faglia era stata disturbata dalle onde sismiche provenienti da due imponenti terremoti avvenuti a grande distanza, uno dei quali era quello che nel 2004 ha interessato Sumatra e le isole Andamane: la pressione esercitata da quelle onde sismiche è stata sufficiente a provocare uno spostamento dei fluidi nella sezione della faglia di San Andrea sotto osservazione. "E' possibile dunque che la forza della faglia e il rischio di terremoti si influenzato da eventi che avvengono dall'altra parte del globo", ha concluso Niu. (gg)

Invecchiamento muscolare: scoperto un fattore chiave.

Fonte: Le Scienze
Nei tessuti dei muscoli delle persone anziane, i livelli della chinasi MAP sono bassi: per questo non vengono attivati i recettori Notch che innescano la crescita cellule staminali deputate alla riparazione dei tessuti.
Un cammino biochimico cruciale per l’invecchiamento dei muscoli è stato scoperto da un gruppo di ricercatori dell’Università della California a Berkeley (UCSB), aprendo la strada a manipolazioni dello stesso cammino che potrebbero in futuro consentire di ripristinare i meccanismi di riparazione e di rinnovamento persi con l’età.Precedenti studi condotti dallo stesso gruppo, guidato da Irina Conboy, che fa parte anche del Berkeley Stem Cell Center e del California Institute for Quantitative Biosciences (QB3), avevano messo in luce la capacità delle cellule staminali adulte di riparare e sostituire il tessuto muscolare danneggiato grazie a un meccanismo governato da segnali molecolari inviati dal tessuto circostante. Sono proprio questi segnali quelli che vengono a mancare con l’avanzare dell’età, precludendo il ricambio delle cellule dei muscoli.Un’altra, precedente ricerca aveva permesso di scoprire, inoltre, che le cellule staminali sono dotate di un recettore chiamato Notch, che ne innesca la crescita quando viene attivato. Le stesse cellule hanno anche un recettore per la proteina TGF-beta che, quando attivata in eccesso, stabilisce una reazione a catena che infine inibisce la capacità della cellula di dividersi.Nell'articolo da loro pubblicato sulla rivista EMBO Molecular Medicine, i ricercatori spiegano che nei topi l’invecchiamento è in parte associato con il progressivo declino dei Notch e all’incremento dei livelli di TGF-beta, che infine bloccano la capacità delle cellule staminali di ricostruire in modo efficace i tessuti dell’organismo.Inoltre, quest'ultimo studio rivela come nel muscolo umano siano attivati gli stessi cammini biochimici e mostra altresì per la prima volta che la chinasi MAP (mitogen-activated protein), un fattore di regolazione per l’attività del Notch essenziale anche per la riparazione del muscolo umano, viene resa inattiva nel tessuto invecchiato. La chinasi MAP (MAPK) è una molecola familiare ai biologi poiché è un enzima importante per la formazione degli organi in diverse specie animali, dai nematodi ai moscerini della frutta, fino ai topi. Nel caso de muscoli umani delle persone anziane, i livelli di MAPK sono bassi, e perciò il “cammino Notch” non viene attivato, con la conseguenza che le cellule staminali non sono più in grado di svolgere il compito di rigenerazione muscolare.Tale circostanza è confermata dall’osservazione che, quando i livelli di MAPK vengono inibiti artificialmente, anche i muscoli umani giovani non sono più in grado di rigenerarsi. Il contrario, invece, si verifica quando si mettono tessuti muscolari di anziani in una soluzione in cui viene forzata l’attivazione della MAPK, come hanno fatto i ricercatori. In tal caso, la capacità rigenerativa del muscolo vecchio viene migliorata in modo significativo."Il fatto stesso che il cammino MAPK siano stato conservato nel corso dell’evoluzione, dai vermi nematodi agli esseri umani, dimostra l’importanza della sua funzione”, ha commentato la Conboy. "Ora sappiamo che esso riveste un ruolo cruciale nella regolazione e nell’evoluzione della rigenerazione tissutale. In termini pratici, sappiamo che per aumentare la rigenerazione del muscolo umano invecchiato e ristabilire la salute del tessuto, è possibile avere come obiettivo il cammino MAPK oppure il cammino Notch. L’obiettivo finale, ovviamente, è passare dalla ricerca di laboratorio ai trial clinici." (fc)

Il Progetto "Cloud": un test senza precedenti decifra le metamorfosi del riscaldamento globale e il ruolo del Sole.

Fonte: La Stampa
Al Cern un test senza precedenti decifra le metamorfosi del riscaldamento globale e il ruolo del Sole. "I raggi cosmici generano gli ioni intorno ai quali si formano i cumuli: così replicheremo il processo in laboratorio".

di DAVIDE PATITUCCI:
La data si avvicina: il 7 dicembre si aprirà a Copenaghen la conferenza sul clima dell’Onu e i delegati di 194 Paesi dovranno decidere quali contromisure prendere per contrastare il riscaldamento del Pianeta. L’accordo resta lontano, soprattutto tra i Paesi più ricchi - per anni i grandi inquinatori - e le economie emergenti, Cina e India in testa, poco inclini ad accettare vincoli a una crescita sempre impetuosa. Intanto, anche gli scienziati si preparano a questa scadenza che molti giudicano decisiva e intervengono nel dibattito con l'unico strumento a loro disposizione: il rigore del metodo galileiano. Intanto, nel più grande laboratorio di fisica del mondo, il Cern di Ginevra, gli studiosi si apprestano a dare il via, quasi in contemporanea all’accensione dell’acceleratore di particelle Lhc, all'esperimento «Cloud» (l’acronimo, che sta per «Cosmic leaving outdoor droplets», è il termine inglese di nuvola): per la prima volta utilizzerà proprio un acceleratore di particelle per ricreare in laboratorio una delle realtà più evanescenti in natura, le nuvole. E’ un tentativo senza precedenti, che, in realtà, ha un’origine antica: l’idea di coinvolgere il laboratorio di Ginevra in questo tipo di studio nasce alcuni anni fa, in seguito alla partecipazione dell'ex direttore del Cern stesso, Robert Aymar, a una sessione dei Seminari di Erice dedicata ai mutamenti climatici. Scopo del progetto, a cui prendono parte una ventina d'istituti di Russia, Usa e Unione Europea, è studiare l'influenza sulla formazione delle nuvole, e di conseguenza sul clima terrestre, dei raggi cosmici, il cui flusso è correlato all'attività del Sole.Il momento sembra particolarmente azzeccato. La nostra stella, anche se non ce ne accorgiamo, sembra essersi un po’ addormentata. Da quasi 700 giorni, ormai, la sua superficie non presenta macchie, come rilevano le immagini della sonda europea «Soho». Un record assoluto da quando (era la prima metà dell'Ottocento) si raccoglie questo tipo di dati. Una condizione che sta mettendo in allerta gli studiosi, come dimostra «Sky&Telescope», la rivista di astronomia più diffusa al mondo, che ha dedicato al fenomeno la copertina con un titolo eloquente: «Che cosa non funziona nel nostro Sole?».Le macchie solari, regioni della fotosfera caratterizzate da una temperatura più bassa rispetto al resto della superficie, furono osservate per la prima volta da Galileo Galilei 400 anni fa. Caratterizzate da una periodicità di circa 11 anni, la loro assenza è spesso associata a un irrigidimento delle temperature sulla Terra. Sarebbe bastato che il genio pisano fosse vissuto alcuni decenni dopo, tra il 1645 e il 1715, e non avrebbe visto nulla. In quel periodo, infatti, la nostra stella attraversò una fase di letargo, battezzata «minimo di Mauner». Una lunga quiete, accompagnata sul nostro pianeta da un calo della temperatura globale, noto come piccola era glaciale. «Le prove di un collegamento tra la storia climatica della Terra e l'attività solare sono talmente marcate che non è più possibile ignorarle», dice adesso Jasper Kirkby, portavoce del progetto «Cloud».E aggiunge: «Se le variazioni nel Sole sembrano condizionare il clima terrestre, il meccanismo con cui ciò avviene, però, non è noto. Scopo di “Cloud”, quindi, è capire attraverso lo studio delle interazioni dei raggi cosmici - le “ceneri” del Big Bang formate perlopiù da protoni, con aerosol e particelle di vapore acqueo in sospensione - se questi fasci energetici possono o meno avere un ruolo nella formazione delle nuvole. Nell'ultimo secolo, infatti, il vento solare, una pioggia di particelle che si staccano dalla fotosfera e come tanti minuscoli proiettili investono la Terra, ha prodotto un aumento della schermatura contro i raggi cosmici del 15%, con la conseguente diminuzione della copertura nuvolosa».Ma come si formano le nuvole? Secondo gli scienziati del Cern, quando i raggi cosmici entrano nell'atmosfera, sottraggono elettroni ai gas circostanti, lasciando una scia di molecole cariche, gli ioni. E’ attorno a questi ioni che si aggregano poi alcune particelle di aerosol, fino a formare dei nuclei di condensazione, che, legando in successione molecole d'acqua, generano le nuvole. Un processo che ora, a Ginevra, gli studiosi cercheranno di replicare in una camera di tre metri di diametro, utilizzando al posto dei raggi cosmici un fascio di particelle generato da un sincrotrone. «Il vantaggio di questo esperimento rispetto alle tradizionali osservazioni atmosferiche - precisa Kirkby - è che potremo per la prima volta controllare il flusso dei raggi cosmici e ciò che succede nella camera, osservando in dettaglio le tappe del processo. Si tratta di un progetto ambizioso ed eccitante, perché la sua natura interdisciplinare unisce specialisti di diverse materie, tra cui fisici dell'atmosfera, chimici, fisici solari e delle particelle. Studieranno il fenomeno da prospettive differenti e quindi le probabilità di successo saranno maggiori». Chi è Jasper Kirkby FisicoRUOLO: E’ IL RESPONSABILE DELPROGETTO «CLOUD»RICERCHE: PROGETTAZIONE DI ACCELERATORI DI PARTICELLEIL SITO:
HTTP://PUBLIC.WEB.CERN.CH/ PUBLIC/WELCOME.HTML

lunedì 28 settembre 2009

Un nuovo sistema permette per la prima volta il sequenziamento diretto dell’Rna, senza doverlo prima riconvertire in Dna, perdendo informazioni.

Fonte: Galileo
Una nuova tecnica veloce ed economica per sequenziare direttamente l’Rna senza doverlo prima trasformare in Dna; senza cioè perdere informazioni importanti e inquinare i campioni. L’hanno messa a punto i ricercatori della Helicos BioSciences Corporation di Cambridge, guidati da Patrice Milos e promette di essere così rivoluzione nel campo delle analisi genetiche da essersi meritata un posto tra le pagine di Nature.
Nelle cellule, il Dna viene normalmente convertito in Rna nel processo che porta alla formazione delle proteine. Mentre, però, il contenuto del Dna (il genoma) è lo stesso in ogni cellula, l’informazione codificata nell’Rna (il trascrittoma) dipende da quali geni sono è attivati (cioè espressi) in un determinato momento in una determinata cellula, oltre che dalle condizioni ambientali. Conoscere il trascrittoma è quindi fondamentale per sapere il “profilo di espressione” delle cellule, utilizzato nella ricerca oncologica, nelle malattie genetiche e nella microbiologia.
Le tecniche di analisi dell’Rna attualmente disponibili, però, non permettono un sequenziamento diretto: prima si deve trasformare nuovamente l’Rna in Dna (chiamato c-Dna), poi intervengono molteplici manipolazioni, che possono introdurre errori e artefatti.
Il nuovo studio presentato su Nature propone invece un accurato sequenziamento e una quantificazione di una molecola di Rna ottenuta direttamente da un campione biologico del lievito Saccharomyces cerevisiae, senza passare per il c-Dna. La metodologia, fanno sapere dalla Helicos (che intende espandere il suo mercato sulla base di questa scoperta) non solo è la prima che consente il sequenziamento diretto, ma è anche a basso costo: potrebbe permettere un più dettagliato livello di analisi del trascrittoma e l’identificazione dei diversi tipi di Rna. (t.m.)

Superare la resistenza agli antibiotici.

Fonte: Le Scienze
Un nuovo composto è in grado di bloccare un particolare stadio dello sviluppo della superficie della cellula batterica che finora non era mai stato utilizzato come bersaglio dagli antibiotici.
La resistenza agli antibiotici rappresenta un problema sanitario significativo da più di un decennio. Ma, a dispetto della necessità di nuove opzioni terapeutiche, negli ultimi 40 anni sono state sviluppate solo due nuove classi di antibiotici.
Ora una promettente scoperta dei ricercatori della
McMaster University di Hamilton, nell'Ontario, Canada, ha individuato un punto di partenza per nuovi interventi sulle infezioni resistenti.
Il gruppo della McMaster University guidato da Eric Brown, professore del Dipartmento di biochimica e scienze biomediche, ha utilizzato una particolare tecnica di screening su un gran numero di molecole per riuscire a individuare quelle in grado di uccidere i batteri e per studiare successivamente i meccanismi biochimici in virtù dei quali ciò avviene.
Grazie anche alla collaborazione con i colleghi del
DeGroote Institute for Infectious Disease Research della stessa università si è così riusciti a identificare un promettente composto chimico, denominato MAC13243.
Gli antibiotici convenzionali distruggono i batteri bloccandone la produzione della membrana cellulare, del DNA o delle proteine: l'MAC13243 è in grado di bloccare un particolare stadio dello sviluppo della superficie della cellula batterica che finora non è mai stato utilizzato come bersaglio dei composti antibiotici.
"Siamo molto soddisfatti del risultato”, ha commentato Brown, primo autore di un articolo di resoconto apparso sulla rivista “Nature Chemical Biology”. “Aver trovato un nuovo bersaglio terapeutico in una parte finora non sfruttata della fisiologia batterica consente di affrontare il problema in modo del tutto innovativo: poiché è in grado di colpire batteri resistenti ai farmaci in un modo differente rispetto a quanto fanno gli antibotici, il nuovo composto potrebbe aprire la strada a nuovi trattamenti per superare la resistenza di alcuni tipi di microrganismi.” (fc)

Un circuito integrato a eccitoni.

Fonte: Le Scienze
La nuova architettura permetterebbe di eliminare gli attuali tempi morti legati alla conversione dalla forma elettronica dell'informazione, usata nell'elaborazione, a quella fotonica della sua trasmissione.
La scorsa estate venne realizzato un circuito integrato basato su eccitoni in grado di funzionare a 1,5 gradi Kelvin, una temperatura inferiore a quella dello spazio profondo e raggiungibile solo in alcuni particolare laboratori di ricerca.
Ora gli stessi ricercatori dell'
Università della California a San Diego guidati da Leonid Butov riferiscono di aver ottenuto un circuito integrato simile che funziona però a 124 Kelvin, facilmente raggiungibile con l'uso di azoto liquido.
"Il nostro obiettivo era quello di realizzare dispositivi efficienti basati su eccitoni che siano operativi a temperatura ambiente e possano sostituire dispositivi elettronici in cui è importante un'alta velocità d'interconnessione”, ha commentato Butov, primo autore dell'articolo di resoconto pubblicato sulla rivista "Nature Photonics". "Siamo ancora a uno stadio iniziale di sviluppo: solo di recente abbiamo dimostrato il principio di funzionamento di transistor basati su eccitoni e la ricerca è ancora in corso.”
Gli eccitoni sono coppie di elettroni, carichi negativamente, e lacune, cariche positivamente, che possono essere creati dalla radiazione luminosa in un semiconduttore come l'arseniuro di gallio. Quando l'elettrone e la lacuna si ricombinano, l'eccitone decade e rilascia la sua energia come un lampo di luce.
Il fatto che gli eccitoni possano essere convertiti in luce rende i dispositivi basati su di essi più veloci e più efficienti rispetto ai circuiti convenzionali con interfacce ottiche che utilizzano elettroni per il calcolo e devono convertirli in luce per l'utilizzazione nei dispositivi di comunicazione.
"I nostri transistor elaborano i segnali utilizzando eccitoni, che come gli elettroni possono essere controllati con tensioni elettriche ma che, a differenza di questi, si trasformano in fotoni all'uscita del circuito”, ha spiegato Butov. "Questo accoppiamento diretto eccitoni/fotoni consente di collegare in modo molto conveniente la computazione alla comunicazione, a patto di risolvere, ovviamente, gli ostacoli tecnologici che ancora impediscono la diffusione di queste soluzioni”. (fc)

Messaggi subliminali: funzionano quelli negativi.

Fonte: Le Scienze

Il fenomeno sarebbe legato al vantaggio evolutivo che si ha nel rispondere più rapidamente di quanto permeso dalla "lenta" elaborazione cosciente a possibili segnali di pericolo.
I messaggi subliminali - ossia quelle immagini che vengono proposte a un osservatore per un lasso di tempo talmente breve da impedirne la percezione cosciente - sono più efficaci quando veicolano un contenuto negativo: a stabilirlo è stata una ricerca condotta da psicologi dell'University College di Londra (UCL) con il concorso del Wellcome Trust, che firmano un articolo sulla rivista "Emotion".La capacità delle immagini subliminali di influire sulle persone che le subiscono è ormai da anni oggetto di accese discussioni, soprattutto nell'ambito del mondo pubblicitario.Diversi studi hanno indicato che la percezione inconscia di informazioni subliminali è in grado di suscitare una risposta emotiva, ma per lo più la progettazione di queste ricerche aveva caratteristiche metodologiche che le esponeva a critiche, sicché i loro risultati non potevano essere considerati definitivi né privi di ambiguità. Nel corso di questo nuovo studio i ricercatori hanno mostrato a 50 soggetti una serie di parole che apparivano sul monitor di un computer per un intervallo sufficientemente breve perché l'osservatore non potesse leggerle consciamente. In mezzo a parole emotivamente neutre erano inserite alcune parole con una valenza emotiva positiva (per esempio: sorridente, fiore, pace) e altre con valenza negativa (agonia, disperazione, morte). Dopo ogni parola veniva chiesto ai soggetti se essa fosse neutra o emotivamente "colorata" e quanto consideravano affidabile il loro giudizio. E' risultato che i partecipanti rispondevano in modo decisamente più accurato alle parole con coloritura negativa, anche se erano perfettamente convinti che la risposta data fosse puramente casuale. "Si è speculato molto intorno all'ipotesi che le persone possano elaborare inconsciamente o meno le informazioni emozionali, come immagini, facce o parole", osserva Nilli Lavie, che ha diretto lo studio. "Noi abbiamo mostrato che è possibile percepire il valore emotivo dei messaggi subliminali, provando in modo conclusivo che le persone sono molto più attente alle parole negative.""Chiaramente c'è un vantaggio evolutivo a rispondere rapidamente a informazioni con valenza emotiva negativa. Non possiamo aspettare i comodi della nostra coscienza se qualcuno ci corre incontro con un coltello o se guidando sotto la pioggia o nella nebbia vediamo un segnale di pericolo." Quanto all'applicazione dei messaggi subliminali in ambito pubblicitario, osserva la Lavie, "resta però controversa l'idea che, nell'ambito della pubblicità, il sottolineare le qualità negative di un concorrente possa funzionare in maniera più efficace del propagandare il proprio prodotto". (gg)

domenica 27 settembre 2009

Da una miniera inglese la sfida al CERN: Un'equipe di fisici britannici sfidano il CERN dal fondo di una miniera.

Fonte: TIO.CH

In un laboratorio in fondo ad una miniera di potassio nel nord dell'Inghilterra, una piccola equipe di fisici britannici si sta preparando a sfidare il CERN di Ginevra nella caccia ai segreti dell'universo. Con la macchina da loro progettata e realizzata al costo di quattro milioni di sterline - contro i due miliardi spesi per l'acceleratore di particelle del centro svizzero di ricerca nucleare - gli scienziati sperano di identificare le elusive particelle subatomiche che darebbero origine alla materia oscura.
A rendere la loro sfida ancora più avvincente è il fatto che la loro macchina, chiamata Zeplin-III verrà accesa tra qualche settimana, proprio quando il CERN riavvierà il suo monumentale Large Hadron Collider (LHC). Chi per primo scoprirà qualcosa sull'identità della materia oscura, vincerà con ogni probabilità il prossimo Nobel per la fisica.
"Questo è uno dei grandi premi e obiettivi della fisica moderna. Si reputa che la materia oscura sia intorno a tutti noi, ma è invisibile, attraversa la materia ordinaria e fino ad ora è stato impossibile percepirla. Chiunque la scoverà, aiuterà a risolvere uno dei grandi misteri del funzionamento dell'universo", ha spiegato al "Sunday Times" Sean Paling, portavoce del team di scienziati.
Il laboratorio britannico si trova a Boulby, nei pressi di Cleveland, a quasi due chilometri di profondità, per proteggere i macchinari dai raggi cosmici. I fisici concentreranno le loro ricerche sulle cosiddette Wimps - acronimo di Weakly Interacting Massive Particle - ovvero particelle dotate di massa che interagiscono debolmente con la materia normale solo tramite la gravità e la forza nucleare debole. Le Wimps vengono utilizzate dai cosmologi per indicare le caratteristiche del candidato ottimale di materia oscura.
Il team di Bouldy vuole sviluppare strumenti in grado di emettere un segnale quando vengono colpiti da queste particelle e poi analizzare questo segnale per comprendere le proprietà delle particelle. L'approccio è sostanzialmente molto diverso da quello del CERN, che con il suo acceleratore mira a dare origine ad un'unica particella, il Bosone di Higgs, per poi studiarla. Gli esperimenti del CERN non hanno però dato finora risultati positivi: lo scorso anno, al primo tentativo, si è verificata un'esplosione.
Nonostante l'approccio dei fisici britannici rappresenti una novità interessante, Jim Virdee, professore di fisica dell'Imperial College di Londra, ha detto di non essere d'accordo con l'idea di una gara contro il CERN. "La sola cosa che ha importanza qui è la scienza", ha detto il professore al quotidiano domenicale.

ats
Foto apertura: Keystone Martial Trezzini

sabato 26 settembre 2009

SHOCK ANAFILATTICO: INDIVIDUATE LE MOLECOLE in grado di produrre reazioni allergiche gravi.

Fonte: ASCA
(ASCA) - Roma, 25 set - Tanto pericolose quanto nascoste. Ma alla fine sono state scovate. Lo studio, condotto dai ricercatori del Western Australian Institute for Medical Research's Centre, e' stato pubblicato su Journal of Allergy & Clinical Immunology. In particolare, gli scienziati hanno individuato le molecole in grado di produrre reazioni allergiche anche gravi, fino al tanto temuto shock anafilattico. Una scoperta importante, che consentira' di individuare i soggetti a rischio e di prevenire le reazioni allergiche piu' pericolose. Lo shock anafilattico colpisce fino al 15% della popolazione mondiale e circa 1 su 70 bambini affetti da allergie. Si manifesta immediatamente e senza preavviso, con sintomi, come le difficolta' respiratorie o il gonfiore della lingua e della gola, che possono anche mettere in pericolo la vita del soggetto allergico.

Nuovi farmaci: Aumentano i costi ma la loro efficacia lascia alquanto a desiderare.

Fonte: Farmacia.it

Roma – In Italia negli ultimi anni sono stati registrati centinaia di farmaci, ma oltre la metà rappresenta un’innovazione modesta o moderata. La maggior parte di questi prodotti va a coprire bisogni già soddisfatti, a costi più alti e senza miglioramenti sostanziali. La denuncia viene dagli esperti della Società Italiana di Farmacia Ospedaliera e dei Servizi Farmaceutici delle Aziende Sanitarie (SIFO) durante la presentazione del 30° congresso nazionale della società scientifica (dal titolo “L’assistenza come occasione di ricerca”) che si terrà ad Ascoli Piceno dall’1 al 3 ottobre. “Nell’attuale momento di crisi economica – afferma Laura Fabrizio, presidente SIFO - sarebbe necessario continuare ad impegnare più risorse solo nel caso in cui sia garantito un risultato migliore per la salute e per la qualità di vita dei pazienti. Oggi invece capita che si approvi un farmaco quando i dati clinici sono preliminari, ma non ancora sufficienti a stabilire con certezza i maggiori benefici rispetto alle terapie già esistenti”. “Apriamo le casseforti della sanità soltanto alle innovazioni che davvero danno maggiore efficacia – ribadisce Andrea Messori, vice-presidente SIFO – perciò anche in Italia bisognerebbe considerare non solo il risultato terapeutico espresso con i tradizionali indicatori clinici, ma anche il valore clinico espresso misurando quanta salute si ottiene con un certo farmaco. Le esperienze di molti altri paesi ci insegnano che, nei sistemi sanitari nazionali, la sostenibilità può essere gestita solo mettendo a confronto la salute guadagnata con la spesa sostenuta. Gli indicatori della spesa massima sostenibile per unità di salute prodotta (es. 50 mila euro o 20-30 mila sterline per anno di vita guadagnato) sono infatti materia di frequente dibattito in altri paesi, ma non in Italia. In questo campo, Piemonte, Lombardia, Toscana, Emilia Romagna e Veneto hanno comunque già attivato degli organismi locali di gestione dell’innovazione o Health Technology Assessment (HTA) cui partecipano farmacisti SIFO”.“Fin dal suo Statuto – afferma Pietro Finocchiaro, segretario nazionale SIFO - la nostra Società si propone di promuovere e coordinare l’attività scientifica finalizzata all’appropriato uso del farmaco, del dispositivo medico e di quant’altro utilizzato per la prevenzione, la cura e la riabilitazione”. “Ma mai prima d’ora la ricerca era stata proposta come tema principale di una nostra assise – spiega Isidoro Mazzoni, presidente del 30° Congresso Nazionale SIFO - Quando si parla di innovazione in farmacoterapia si rischia sempre di associarle il significato di nuovo. In realtà non è proprio così. Un farmaco può considerarsi innovativo quando offre al paziente benefici maggiori rispetto alle cure precedenti. L’accesso ai farmaci innovativi (che fa parte dell’assistenza al paziente) è però regolato da alcune variabili importanti: diritti del paziente, tetti di spesa, prontuari regionali e aziendali. Non sempre, quindi, è uguale per tutti, come ad esempio avviene tra regione e regione”. “La SIFO – continua Laura Fabrizio - grazie alla propria rete di esperti, ai propri Laboratori di Farmacoeconomia e di Dispositivi Medici, alle Aree scientifico-culturali appositamente istituite nonché agli scambi con le istituzioni e le società scientifiche, sta sviluppando competenze e ruoli nel campo dell’innovazione terapeutica così da essere riconosciuta come un vero e proprio ‘interlocutore istituzionale’ che partecipa in maniera qualificata e propositiva al dibattito che governa le scelte regolatorie nazionali e internazionali contribuendo a documentare, con esperienze applicative sul campo, la validità ed opportunità delle varie proposte”. “Se le normative regolatorie fossero modificate – afferma la Fabrizio - in modo da rendere necessario non solo la non inferiorità ma anche la dimostrazione di un valore aggiunto rispetto alle terapie già disponibili, attraverso la conduzione di studi rigorosi, è facile pensare che gli investimenti si indirizzerebbero verso una maggiore innovazione”.Alla presentazione del congresso, il direttivo della SIFO ha però riconosciuto, che per alcune patologie in questi ultimi anni sono state introdotte molecole fortemente innovative: per esempio nel trattamento dell’infezione da HIV, nel trattamento di tumori (es. rituximab, sorafenib, imatinib, lenalidomide, azacitidina), nell’artrite reumatoide e nella psoriasi (es. farmaci biologici anti-TNF e altri). In alcuni casi, invece, come le malattie rare o orfane, la mancanza di innovazione è dovuta principalmente alla carenza di investimenti nel campo della ricerca.
Ufficio stampa SIFOIntermedia030.226105intermedia@intermedianews.it
La redazione di Farmacia.it non presta alcuna opera di lavoro redazionale sulla pubblicazione dei comunicati e declina ogni responsabilità per i contenuti in esso presenti; la redazione inoltre si riserva di cancellare comunicati stampa in contrasto con la propria linea editoriale.

Internet: A Durban (Sudafrica), una rete inviolabile grazie ai codici segreti quantistici.

Fonte:
Per gli hackers è cominciato un conteggio alla rovescia (forzato) che, per il momento, promette solo la fine delle loro ostilità. Grazie alla meccanica quantistica, cioè quanto di più sofisticato e, ai più difficil­mente comprensibile, che la fisica possa esprimere. La città di Durban, in Sudafrica, ha realizzato in questi mesi la prima rete cittadina «an­ti- hackers». Collegati fra loro sono gli edifici municipali di Pinetown, Westville e Cato Manor. La parola magica che la difenderà è «crittogra­fia quantistica», cioè la scienza dei codici segreti che fa ricorso alla teo­ria da cui è partita la fisica moderna. Il «padre» era Max Planck e l’annun­ciava in una conferenza a Berlino il 14 dicembre 1900. Da allora è inizia­ta una lunga storia segnata da illu­stri controversie (Einstein non ci credeva, pur avendo contribuito) e che solo di recente ha aperto la fine­stra alle prime applicazioni. Tra quelle più desiderate c’è il compu­ter quantistico che porterà una rivo­luzione che oggi nemmeno siamo in grado di valutare pienamente.Il primo passo che sta raccoglien­do successo riguarda appunto la «Quantum Key Distribution (QKD)» realizzata inviando se­gnali su fibre ottiche. L’ultima significativa sperimentazione è stata compiuta nell’ottobre 2007 a Ginevra durante le elezioni con un collegamen­to tra la stazione di raccolta dei conteggi e il Data Center del governo. Grazie al succes­so di questo progetto pilota il Cantone di Ginevra ha deciso che la tecnologia «QKD» sarà impiega­ta in tutte le future elezioni. Ma se Durban è la prima città al mondo ad accendere una rete del genere, nel 2010 si aggiungeranno altre tre città: il governo di Tokyo complete­rà i collegamenti fra tutti i ministe­ri e pure Madrid e Londra avranno ultimato la loro prima rete metro­politana.«Questa tecnologia proposta ne­gli anni Ottanta e sperimentata in la­boratorio negli anni Novanta, final­mente dai primi anni Duemila con­sente le prime applicazioni indu­striali — spiega Erwan Bigan della svizzera Swisscom — Ma sono anco­ra pochissime le società impegnate su questa frontiera che trova resi­stenza ad essere applicata nonostan­te gli indubbi vantaggi». Sviluppi e possibilità sono emer­si dalla Conferenza internazionale «Quantum Information Processing and Communication» tenuta per la prima volta in Italia, all’Università La Sapienza, a Roma dove queste ri­cerche erano state avviate da France­sco De Martini. Il motivo, infatti, è che presso l’ateneo è attivo un picco­lo ma agguerrito gruppo di ricerca­tori ormai di fama internazionale che lavora teoricamente e pratica­mente sull’argomento il quale deve la sua fama alla fantascienza perché utilizza i principi del teletrasporto resi celebri da Star Trek.«Seguendo la via più semplice, manipoliamo i fotoni con le proprie­tà della fisica quantista — spiega il professor Paolo Mataloni alla guida del gruppo nel Dipartimento di fisi­ca —. Così riusciamo a costruire una rete nella quale far viaggiare in­formazione in maniera inviolabile. Tutto si basa sulla polarizzazione dei fotoni in modo random e come ciò avvenga lo sa chi invia il messag­gio e chi lo riceve, soltanto se prima ha ricevuto la chiave di interpreta­zione. Inoltre, qualsiasi tentativo di intrusione nella rete viene subito ri­conosciuto perché altera la comuni­cazione ». In Italia ci sono alcuni al­tri gruppi di ricercatori impegnati in questo campo. Nelle Università di Firenze e Pisa si fa ricorso ad un’al­tra tecnica (Bose-Einstein Conden­sation) nella quale sono protagoni­sti invece dei fotoni, delle particelle atomiche chiamate bosoni portate a temperature vicine allo zero assolu­to (meno 273 gradi centigradi). Nel­le università di Torino e Camerino si fa ricorso, come a Roma, ai fotoni e a Camerino è nata pure una start-up, una società che inizia a commercializzare i risultati.L’obiettivo ambito rimane però il computer quantistico nel quale il bit classico viene sostituito dal Qu­bit, cioè dal «Quantum bit», il «quanto di informazione quantisti­ca » nel quale le basi del conteggio dei computer classici «zero» e «uno» si manifestano in molti modi nello stesso momentoamplificando eccezionalmente la capacità di ela­borazione.«Nel nostro laboratorio — raccon­ta Mataloni — manipolando due fo­toni siamo arrivati ad una capacità di 6 Qubit. Ora siamo in gara per condividere un progetto di ricerca europea che entro tre anni mira a re­alizzare un microprocessore da 20 Qubit, mattone fondamentale del fu­turo computer quantistico il quale si trova oggi allo stesso livello offer­to dagli elaboratori tradizionali ne­gli anni Cinquanta». L’Europa, in questo campo, è in una posizione di primo piano a livel­lo internazionale, per nulla inferiore agli Stati Uniti o al Giappone. Se si saprà mantenere, per il Vecchio Con­tinente, dalla fisica quantistica che ha generato teoricamente potrebbe­ro emergere anche preziose applica­zioni pratiche.

Giovanni Caprara 26 settembre 2009

University of Zaragoza: Ideato uno strumento per poter "captare" la materia oscura.

SOURCE

ScienceDaily (Sep. 25, 2009) — A team of researchers from the University of Zaragoza (UNIZAR) and the Institut d'Astrophysique Spatiale (IAS, in France) has developed a "scintillating bolometer" -- a device that the scientists will use in efforts to detect the dark matter of the universe, and which has been tested at the Canfranc Underground Laboratory in Huesca, Spain.
"One of the biggest challenges in physics today is to discover the true nature of dark matter, which cannot be directly observed – even though it seems to make up one-quarter of the matter of the Universe. So we have to attempt to detect it using prototypes such as the one we have developed", Eduardo García Abancéns, a researcher from the UNIZAR's Laboratory of Nuclear Physics and Astroparticles, tells SINC.
García Abancéns is one of the scientists working on the ROSEBUD project (an acronym for Rare Objects SEarch with Bolometers UndergrounD), an international collaborative initiative between the Institut d'Astrophysique Spatiale (CNRS-University of Paris-South, in France) and the University of Zaragoza, which is focusing on hunting for dark matter in the Milky Way.
The scientists have been working for the past decade on this mission at the Canfranc Underground Laboratory, in Huesca, where they have developed various cryogenic detectors (which operate at temperatures close to absolute zero: −273.15 °C). The latest is a "scintillating bolometer", a 46-gram device that, in this case, contains a crystal "scintillator", made up of bismuth, germinate and oxygen (BGO: Bi4Ge3O12), which acts as a dark matter detector.
"This detection technique is based on the simultaneous measurement of the light and heat produced by the interaction between the detector and the hypothetical WIMPs (Weakly Interacting Massive Particles) which, according to various theoretical models, explain the existence of dark matter", explains García Abancéns.
The researcher explains that the difference in the scintillation of the various particles enables this method to differentiate between the signals that the WIMPs would produce and others produced by various elements of background radiation (such as alpha, beta or gamma particles).
In order to measure the miniscule amount of heat produced, the detector must be cooled to temperatures close to absolute zero, and a cryogenic facility, reinforced with lead and polyethylene bricks and protected from cosmic radiation as it housed under the Tobazo mountain, has been installed at the Canfranc underground laboratory.
"The new scintillating bolometer has performed excellently, proving its viability as a detector in experiments to look for dark matter, and also as a gamma spectrometer (a device that measures this type of radiation) to monitor background radiation in these experiments", says García Abancéns.
The scintillating bolometer is currently at the Orsay University Centre in France, where the team is working to optimise the device's light gathering, and carrying out trials with other BGO crystals.
This study, published recently in the journal Optical Materials, is part of the European EURECA project (European Underground Rare Event Calorimeter Array). This initiative, in which 16 European institutions are taking part (including the University of Zaragoza and the IAS), aims to construct a one-tonne cryogenic detector and use it over the next decade to hunt for the dark matter of the Universe.
Methods of detecting dark matter
Direct and indirect detection methods are used to detect dark matter, which cannot be directly observed since it does not emit radiation. The former include simultaneous light and heat detection (such as the technique used by the scintillating bolometers), simultaneous heat and ionisation detection, and simultaneous light and ionisation detection, such as research into distinctive signals (the most famous being the search for an annual modulation in the dark matter signal caused by the orbiting of the Earth).
There are also indirect detection methods, where, instead of directly seeking the dark matter particles, researchers try to identify other particles, (neutrinos, photons, etc.), produced when the Universe's dark matter particles are destroyed.
Journal reference:
N. Coron, E. García, J. Gironnet, J. Leblanc, P. de Marcillac, M. Martínez, Y. Ortigoza, A. Ortiz de Solórzano, C. Pobes, J. Puimedón, T. Redon, M.L. Sarsa, L. Torres y J.A. Villar. A BGO scintillating bolometer as dark matter detector prototype. Optical Materials, 2009; 31 (10): 1393 DOI:
10.1016/j.optmat.2008.09.016
Adapted from materials provided by FECYT - Spanish Foundation for Science and Technology, via EurekAlert!, a service of AAAS.

Dal Giappone arriva il telefono fatto dal legno di scarto.


Fonte:
Il mondo sembrava essersi dimenticato della tecnologia dei telefonini verdi. Ma dopo un piccolo accenno alla batteria solare, ecco ritornare in voga i cellulari ecologici. Il produttore giapponese di tecnologia wireless NTT DoCoMo ha annunciato giovedì scorso di aver creato due prototipi di telefono costruiti con il legno in eccesso derivante da alberi abbattuti durante le operazioni di disboscamento volti a garantire la buona salute delle piantagioni.
I dispositivi sono stati costruiti attraverso la collaborazione tra due delle maggiori aziende mondiali di prodotti tecnologici come Sharp e Olympus, più tanti alberi, i quali fanno parte di un progetto più grande di riforestazione in Giappone. Il modello “sportivo” del prototipo del telefono portatile è fatto dal legno di cipresso, e va sotto il nome di Touch Wood. Nonostante la costruzione in legno, il corpo è resistente all’acqua, insetti e muffe, grazie alla tecnologia 3D di stampaggio a compressione sviluppato da Olympus.
Nessun colore artificiale o vernice vengono utilizzati nella produzione, in modo che il modello conservi il colore e l’odore naturale del legno di cipresso. Ulteriori specifiche hardware devono ancora essere annunciate, come qualche particolare in più molto atteso, ad esempio sull’interfaccia utente, composta con arte fotografica da Mikiya Takimoto.

Ricercatori europei sviluppano test per individuare la tubercolosi.

Fonte: Cordis
Un team di ricercatori europei ha sviluppato un test in grado di diagnosticare la tubercolosi attiva (TB) anche quando i test tradizionali non riescono a rivelarla. Le scoperte sono pubblicate nell'American Journal of Respiratory and Critical Care Medicine. Il team di ricerca Tuberculosis Network European Trialsgroup (TBNET), un consorzio scientifico creato nel 2006 per condurre ricerche sui nuovi metodi diagnostici per la TB, ha usato il test ELISPOT (enzyme-linked immunospot assay) per sviluppare il nuovo metodo. I ricercatori hanno scoperto che le cellule immunitarie specifiche del bacillo della TB sono concentrate nelle vie aeree dei pazienti affetti da tubercolosi attiva. Queste cellule possono essere individuate con facilità impiegando il test ELISPOT. Questo test è in grado di distinguere tra l'infezione da TB latente - conosciuta come LTBI (lasting tuberculosis immune responses) - e la forma attiva, attraverso il confronto della frequenza dei linfociti specifici della TB presenti nel sangue con quelli presenti nei polmoni. Circa un terzo della popolazione mondiale è infettata dal micobatterio che causa la TB, ma soltanto il 10 - 20 per cento di essa svilupperà la malattia. Gli altri hanno l'infezione LTBI, che può svilupparsi in TB in qualsiasi momento. Per la diagnosi della TB viene tradizionalmente usata l'analisi dello sputum: quando questa rivela la presenza dei bacilli della TB, si può presto confermare una diagnosi di TB positiva. Sfortunatamente, in circa il 50% di questi test non si riesce ad individuare i bacilli della TB, rendendo quindi necessario un metodo più accurato. Il dottor Christoph Lange del Centro di ricerche Borstel, presso il Centro Leibniz per la medicina e le bioscienze in Germania, che ha guidato la ricerca TBNET, ha detto: "Attraverso questo studio abbiamo dimostrato che con l'uso del test ELISPOT è possibile una differenziazione tra la tubercolosi polmonare attiva e la LTBI." La TB si diffonde velocemente a causa della sua trasmissione aerea quando le persone infettate starnutiscono, sputano o parlano. È la settima causa più comune di morte a livello mondiale e la sua incidenza sta crescendo, dopo il periodo di declino della malattia osservato a partire dagli anni sessanta grazie all'uso efficace del vaccino BCG (Bacille Calmette-Guérin). Di solito la TB attacca i polmoni, ma possono essere colpite anche altre parti dell'organismo come la spina dorsale e il sistema circolatorio. Per provare il metodo ELISPOT, i ricercatori di TBNET hanno esaminato 347 pazienti sospettati di essere affetti da TB, ma dei quali non si era riusciti ad analizzare lo sputum. È stato eseguito il test ELISPOT attraverso il lavaggio broncoalveolare (BAL), un metodo che consiste nell'introduzione di una piccola quantità di liquido nei bronchi, che viene poi recuperato e analizzato. Dei 347 pazienti, a 71 è stata diagnosticata una TB polmonare attiva e i risultati di questi pazienti erano accurati nel 91,5% dei casi. "Queste scoperte dimostrano che i risultati positivi al test BAL ELISPOT erano altamente indicativi di infezione da TB attiva", ha detto il dott. Lange. "Un risultato negativo al test BAL ELISPOT quasi esclude la presenza di tubercolosi attiva." "Saranno necessarie ricerche future sulla immunodiagnosi della tubercolosi per riuscire ad individuare gli indicatori dell'efficacia del trattamento, che permetteranno l'interruzione sicura della terapia anti-tubercolare senza aumentare il rischio di riattivazione", ha spiegato. "A livello clinico questo sarà di enorme importanza per impostare il trattamento dei pazienti con LTBI e tubercolosi attiva, in particolare in presenza di ceppi di Mycobacterium tuberculosis resistenti ai farmaci." Il dott. Lange ha anche fatto notare che in Europa nel 2008 è stato creato un consorzio composto da 27 istituzioni per lo studio della tubercolosi resistente ai farmaci (<http://www.tbpannet.eu/>), finanziato dall'Unione europea con 12 milioni di euro. Da questo è risultato il progetto TB PAN-NET ("Pan-European network for the study and clinical management of drug resistant tuberculosis"), sostenuto dall'area tematica "Salute" del Settimo programma quadro (7° PQ) dell'UE.
Per maggiori informazioni, visitare: Tuberculosis Network European Trialsgroup (TBNET):
http://www.tb-net.org/ Maggiori informazioni sulla ricerca sulla salute finanziata dall'UE http://ec.europa.eu/research/health/index_en.html
ARTICOLI CORRELATI: 29142, 29209, 29861, 30580
Categoria: VarieFonte: Tuberculosis Network European TrialsgroupDocumenti di Riferimento: Jafari, C et al. (2009) Bronchoalveolar lavage enzyme-linked immunospot for a rapid diagnosis of tuberculosis. American Journal of Respiratory and Critical Care Medicine (in corso di stampa, pubblicato online il 9 luglio). DOI: 10.1164/rccmAcronimi dei Programmi: MS-D C, FP7, FP7-COOPERATION, FP7-HEALTH, FUTURE RESEARCH-->Codici di Classificazione per Materia: Servizi/prestazioni sanitarie ; Medicina, sanità; Aspetti sociali
RCN: 31285

Perché il cromosoma Y può provocare disturbi sessuali?

Fonte: Cordis
Ricercatori olandesi e statunitensi hanno scoperto che un cromosoma Y debole potrebbe comportare una serie di disturbi per la salute umana tra cui la sindrome di Turner (Disgenesi gonadale) e la mancata produzione di sperma. I risultati dello studio sono stati pubblicati sulla rivista Cell. La ricerca sul mistero dietro il ruolo del cromosoma Y nei disturbi sessuali è stata avviata un paio di anni fa, quando il laboratorio David Page presso il Whitehead Institute for Biomedical Research negli Stati Uniti ha riferito la scoperta di otto ampie aree di sequenze palindromiche, o sequenze genetiche a specchio, lungo il cromosoma Y. Questo cromosoma sessuale, hanno riferito i ricercatori, non può scambiare i geni con un altro cromosoma perché non ha un compagno. Lo scambio dei geni aiuta a garantire geni sani e il problema del cromosoma Y è che può scambiare geni solo con sé stesso, quindi le sequenze palindromiche hanno un ruolo di primo piano in questo processo. Il cromosoma Y si piega al centro delle regioni palindromiche, accoppiando sequenze identiche per sfruttare al massimo un buono scambio genetico. Ma mentre il cromosoma Y cerca di conservarsi, il laboratorio Page ha scoperto che un'anomalia potrebbe pregiudicare questo processo. "È il seguito della storia della sequenza palindromica del cromosoma Y," ha spiegato il professor Page del Dipartimento di biologia presso il Massachussetts Institute of Technology (MIT) e direttore del Whitehead Institute for Biomedical Research. Andando avanti di sei anni dalla scoperta iniziale i risultati di questo recente studio suggeriscono che il processo di ricombinazione del cromosoma Y può trasformare senza volerlo l'intero cromosoma in una sequenza palindromica. I ricercatori lo chiamano "cromosoma Y isodicentrico" (idicY), una struttura anormale con due centromeri. Ogni cromosoma umano normale ha un centromero singolo che si trova vicino al centro o all'estremità di un cromosoma. Abbiamo bisogno di centromeri per assicurare una corretta segregazione del cromosoma. "Abbiamo cominciato a pensare seriamente ai centromeri e alle attività che li riguardano," ha detto l'autore principale, il dott. Julian Lange, un ex membro del laboratorio Page. Il dott. Lange ha cominciato a meditare sui possibili risultati di un idicY che si trasmette durante la fecondazione. "Poiché il cromosoma Y non è essenziale per la sopravvivenza di un individuo, questi Y isodicentrici possono permanere," ha sottolineato il dott. Lange, che è attualmente al Memorial Sloan-Kettering Cancer Center di New York. "Si possono trovare nella popolazione." Per questo studio, sono stati raccolti campioni di DNA (acido deossiribonucleico) da 51 pazienti selezionati su un campione di circa 2.400 persone che erano state esaminate negli anni per una serie di problemi di salute come cromosomi Y strutturalmente anormali o sex reversal (discrepanza tra il sesso genotipico e quello fenotipico). I ricercatori hanno scoperto che gli idicY causavano una mancanza di spermatogenesi nei pazienti maschi. Ma dei 51 pazienti, 18 erano anatomicamente femmine, anche se avevano due copie del gene SRY (determinante del sesso) che determinavano il sesso maschile sui loro cromosomi idicY. Il team Page-Lange ha ipotizzato che l'instabilità degli stessi idicY portava alla femminilizzazione di questi soggetti. Tenendo conto di questo, i ricercatori hanno cercato un collegamento e hanno scoperto che più erano grandi i cromosomi Y, maggiore era la probabilità di sex reversal. "Avevamo previsto questo collegamento, che si riferisce alla distanza totale tra i centromeri," ha detto il professor Page. "Ma quando lo abbiamo confermato tramite i dati dei pazienti, eravamo entusiasti." Ricercatori dell'Università di Amsterdam nei Paesi Bassi sono stati co-autori di questo articolo.
Per maggiori informazioni, visitare: Cell:
http://www.cell.com/ Whitehead Institute for Biomedical Research: http://www.wi.mit.edu/index.html
ARTICOLI CORRELATI: 31237
Categoria: VarieFonte: Cell; Whitehead Institute for Biomedical ResearchDocumenti di Riferimento: Lange, J., et al (2009) Isodicentric Y Chromosomes and Sex Disorders as Byproducts of Homologous Recombination that Maintains Palindromes. Cell, 138, 855-869. DOI:10.1016/j.cell.2009.07.042.Acronimi dei Programmi: MS-NL C-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Scienze biologiche; Biotecnologia medica ; Medicina, sanità; Ricerca scientifica
RCN: 31286

Alzheimer, trovata una connessione con la deprivazione di sonno.

Fonte: Le Scienze
Una sperimentazione sui topi ha mostrato che con la deprivazione cronica di sonno le placche tipiche della malattia di Alzheimer appaiono più precocemente e più spesso.
Una sperimentazione sui topi ha mostrato che con la deprivazione cronica di sonno le placche tipiche della malattia di Alzheimer appaiono più precocemente e più spesso. È quanto riportano i ricercatori della Washington University School of Medicine a St. Louis su Science Express, versione online della rivista Science.È ben noto agli specialisti del settore come la malattie neurodegenerative come l’Alzheimer e il Parkinson spesso influiscano direttamente sul sonno. Questi nuovi risultati ribaltano in un certo senso la prospettiva, poiché corroborano l’ipotesi che la perdita di sonno possa rivestire un ruolo importante nella genesi di tali patologie.Il laboratorio di Holtzman ha utilizzato una tecnica chiamata microdialisi in vivo per monitorare i livelli della proteina beta amiloide nel cervello dei topi geneticamente modificati e sviluppare un modello animale della patologia di Alzheimer. Jae-Eun Kang, ricercatore del laboratorio, ha poi notato come i livelli di proteina beta amiloide variavano in funzione delle fasi di sonno e veglia, trovando che essi aumentavano di notte, quando i topi per lo più sono svegli, e diminuivano durante il giorno quando i topi per lo più dormono.Uno studio separato di Randall Bateman del Barnes-Jewish Hospital ha invece misurato i livelli di proteina beta amiloide nel fluido cerebrospinale di esseri umani, riscontrando in effetti come essi fossero generalmente più elevati durante la veglia e più bassi durante il sonno.Per confermare il legame, Kang ha utilizzato tecniche elettroencefalografiche (EEG) sui topi dello Sleep and Circadian Neurobiology Laboratory della Stanford University. I tracciati EEG hanno permesso di confermare ulteriormente la connessione.Stando ai risultati, la deprivazione di sonno è in grado di determinare un incremento della proteina beta amiloide del 25 per cento. Inoltre, bloccando la produzione di un ormone collegato allo stress non si ottengono effetti rilevanti, il che suggerisce che la correlazione tra la deprivazione di sonno e la proteina beta amiloide non è mediata dallo stress.Gli stessi studiosi hanno anche riscontrato come l’orexina, una proteina che partecipa ai meccanismi di regolazione del ciclo sonno/veglia, appaia direttamente coinvolta nell’incremento delle placche."L’orexina o i composti con cui interagisce possono diventare nuovi bersagli per la terapia dell’Alzheimer”, ha spiegato David M. Holtzman, primo autore dell’articolo e direttore del Dipartimento di Neurologia della School of Medicine del Barnes-Jewish Hospital. "I risultati suggeriscono che occorre trattare i disturbi del sonno non solo per i loro molti effetti acuti ma anche per i potenziali effetti a lungo termine sulla salute del cervello”. (fc)

venerdì 25 settembre 2009

La filosofia del Taekwondo (Con video)

Fonte:
Il Taekwondo è l’arte marziale della Corea del Sud. Le caratteristiche principali della disciplina sono tre: Calcio – Pugno – Traiettoria, cioè “il modo in cui si danno calci e pugni in volo”. Il maestro Pang Hyung Kang: “Tae significa calcio, Kwon pugno e, infine, Do indica il modo in cui questi si possono dare in volo. Indica dove e come, calci e pugni possono portare il tuo spirito e il tuo corpo (...). Ci sono diverse risposte alla domanda su quale sia la filosofia, che accompagna la pratica del Taekwondo. Riguardano educazione, cooperazione, pazienza, autocontrollo. Ma soprattutto il Taekwondo insegna come avere e prendersi la giusta confidenza con se stessi, conoscersi”. Anche se le tecniche che hanno sempre accompagnato la diffusione di quest’arte marziale risalgono a migliaia di anni fa, la data ufficiale della nascita del Taekwondo risale agli anni Cinquanta. Allievi e maestri mostrano il loro livello di preparazione e le loro cinture, che vanno dal bianco al nero e che comprendono, su quest’ultima, nove differenti dan o gradi. Quasi tutti praticano il Taekwondo in Corea del Sud. Normalmente si comincia da piccoli, all’età di sette o otto anni nel Dojang, ovvero la palestra dedicata all’apprendimento di questa disciplina. Le ragazze, se vogliono praticare il Taekwondo, possono seguire lo stesso metodo e frequentare gli stessi corsi dei maschi; imparare insieme a loro le tecniche di base e i fondamentali concetti spirituali per poi, in base all’età, affinarle e adattarle alla propria esperienza. Il maestro Yoo Pyeong Hee: “È più difficile insegnare ai bambini, che agli allievi adulti o adolescenti, ma i bambini hanno il vantaggio di essere ancora incontaminati. Sono come un vaso vuoto e possono imparare e assimilare meglio i concetti principali. Hanno un potenziale illimitato”. Il Taekwondo è una disciplina fortemente radicata nella cultura sudcoreana, non solo come sistema di difesa, ma anche come filosofia di vita. Per esempio, in diverse università il Taekwondo è incluso nel programma di studio come disciplina formativa. Non solo per per raggiungere i massimi livelli di preparazione nell’arte marziale e diventare un maestro, ma anche per insegnare agli studenti a raggiungere i propri obiettivi, mettendo a frutto le aspettative con successo e per una miglior integrazione. Il capo del dipartimento di Taekwondo dell’Università Joeunju, Choi Kwan Geun: “Gli allievi imparano cosa significa la solidarietà e gli studenti di livelli differenti, che il Taekwondo accresce la stima, facendoli sentire meglio e più sicuri”. Settanta milioni di persone praticano il Taekwondo in centonovanta paesi del mondo e per conservare, e diffondere, i tradizionali valori racchiusi in questa disciplina, Jeonju e Muju quest’anno ospitano la terza edizione del Taekwondo World Culture Expo. Più di mille gli atleti che partecipano alla manifestazione e che provengono da quarantadue diversi paesi. Uno dei partecipanti alla manifestazione: “In questo modo possiamo apprendere una cultura, una lingua e fare dello sport contemporaneamente. Lavoriamo sodo per prepararci. Qui troviamo davvero tutto quello che di più completo esiste al mondo per praticare il Taekwondo”. Questo atleta proviene dagli Stati Uniti: “Il Taekwondo mi dà molta concentrazione e fisicamente divento ogni giorno sempre più forte”. Il Taekwondo divenne molto popolare come pratica sportiva in tutto il mondo all’inizio degli anni Ottanta, soprattutto dopo la sua apparizione alle Olimpiadi di Seul del 1988, come pratica dimostrativa. Ma con il veloce sviluppo della disciplina sportiva alcuni maestri temono che il Taekwondo stia perdendo parte dei suoi tradizionali valori, mentre altri credono il contrario. Lee Hyeon Kon, gran maestro, nato in Corea, ma cittadino statunitense, ha un diverso punto di vista ed è fiducioso riguardo il futuro. “È un dolore crescente, come crescente è lo sviluppo smodato di quest’arte marziale, che perde per strada, momentaneamente, alcuni dei suoi principi fondamentali. Ma io credo che più avanti, le persone cominceranno a capire che si stanno perdendo valori importanti e a quel punto si cercherà di recuperarli”. Così, nella sua evoluzione il Taekwondo combatte per mantenere salde le sue tradizioni e il suo valore. Un esempio è il Taekwonmu, che sposa il Taekwondo con la musica, per rendere l’apprendimento della disciplina molto più efficace, senza modificare lo spirito della bella e antica arte marziale.

Guarda il VIDEO, clicca Qui


La muffa che guida i robot: la nascita dei micro-organismi cibernetici.

Fonte: Moebiusonline

a cura di Mariachiara Albicocco e Sara Occhipinti:
Ascolta il servizio!

Immaginatevi una sostanza gelatinosa e informe in grado di muoversi e di pensare. Ora pensate di inserire la sostanza in un robot al fine di creare un organismo cibernetico... fatto? No, non siamo su un set cinematografico anni '80, confusi tra il remake di Blob- Fluido mortale e Terminator.Siamo a Bristol, Inhilterra, giorni nostri, dove un' equipe di ricercatori ha ricevuto un sostanzioso finanziamento, 228.000 sterline, per studiare le sconvolgenti abilità di una "muffa melmosa intelligente".Scopo? Usare la muffa per programmare un robot in grado di raccogliere oggetti, incorporarli e addirittura "assemblarli". La fenomenale melma di cui stiamo parlando non viene dallo spazio ma dal nostro pianeta: si chiama Physarum polycefalum ed è un organismo unicellulare, costituito sì da un unica cellula, ma con migliaia di nuclei coordinati tra loro che lo rendono in grado di rispondere a più stimoli contemporaneamente.L'aspetto non è dei più gradevoli, assomiglia ad un agglomerato di fango giallo e grazie agli pseudopodi, ovvero ramificazioni del corpo, è in grado di muoversi e di raggiungere le fonti di cibo!Prova delle sue abilità?Se posizionate questo blob melmoso al centro di un labirinto, in poche ore troverà la strada più facile e più breve per raggiungere la fonte di cibo posta all'uscita.

Inoltre, labirinti a parte, il nostro slaimer ha dimostrato di saper rispondere con una sorprendente intelligenza a stimoli luminosi e chimici.Sarebbe bastato questo per convincere gli scienziati a sfruttarlo nella tecnologia robotica, ma Physarum ha voluto stupire ancora!Infatti, un biofisico giapponese ha svelato come la melma unicellulare sia in grado di anticipare gli eventi o quantomeno di memorizzarli. Grazie ad un esperimento, la muffa è stata sottoposta a tre cicli di raffreddamento, uno ogni ora, che producevano un rallentamento dei suoi movimenti. La quarta volta, la temperatura non è stata modificata ma Physarum ha reagito comunque, riducendo gli spostamenti e rallentando i movimenti come se avesse registrato o memorizzato l'intervallo di tempo intercorso tra i periodi di freddo. Piccola digressione: anche il cinema è ricorso a questi espedienti, infatti nel film Blob- Fluido mortale, la melma killer viene congelata con degli estintori ad anidride carbonica e spedita nell'artico!Ma le potenzialità di Physarum polycephalum sono ancora tutte da esplorare, ecco il perché dei nuovi fondi stanziati per la ricerca.Le premesse lasciano intendere che il fantafuturo sia alle porte ma è ancora presto per dire se questa melma gialla sarà in grado di controllare dei robot complessi.Per il momento l'unica applicazione robotica di questo organismo unicellulare risale a quattro anni fa, quando un'altra equipe di ricercatori inglesi realizzò un robot simile ad un ragno controllato direttamente da Physarum. Gli studiosi avevano applicato stimoli luminosi sui sensori collegati ad ogni zampa meccanica del ragno ed erano riusciti a far muovere il robot, sfruttando gli spostamenti del blob melmoso che tentava di fuggire alla luce e raggiungere le risorse di cibo.Da ragni meccanici ad androidi assetati di galassie il passo è lungo ma tutto sommato è meglio guardarsi le spalle!


Ascolta il servizio!
Scarica il file audio in mp3

giovedì 24 settembre 2009

SurroundSense: Un’applicazione che permette ai cellulari di sapere esattamente dove ci si trova.

Fonte:
Sei in caffetteria o in profumeria, a una mostra o a gustarti un dolce in pasticceria? Inutile nasconderti, sarà il telefonino a localizzarti con esattezza e a fare la spia. Sembrano ormai superati infatti i telefoni cellulari dotati di Gps: la nuova frontiera è la localizzazione indoor, parola di ricercatori della Duke University. Gli scienziati statunitensi hanno messo insieme alcune delle funzionalità dei telefonini moderni – accelerometro, videocamera, microfono – per sviluppare un’applicazione che trasforma le caratteristiche di un locale in una vera e propria impronta digitale e rende ogni luogo identificabile. L’applicazione, chiamata SurroundSense, è stata presentata oggi all’International Conference on Mobile Computing and Networking a Pechino.
Il sistema utilizza la videocamera e il microfono installati sul telefonino per registrare suoni, luci e colori, mentre l’accelerometro registra i movimenti, classificandoli secondo schemi precisi, del proprietario dell’apparecchio. Le informazioni sono inviate a un server che le amalgama per individuare il luogo da cui provengono. “Le singole registrazioni non dicono molto”, ha spiegato al pubblico della conferenza Inout Constandache della Duke, “ma quando sono combinate le informazioni visive, sonore e di movimento creano un’impronta unica del luogo in cui ci si trova”.
I ricercatori hanno visitato oltre cinquanta negozi e locali per provare SurroundSense e hanno riscontrato un’accuratezza dell’applicazione pari all’87 per cento. Più viene usata più alta è la precisione. “Man mano che il sistema raccoglie più dati di un posto, magari durante visite a orari diversi, l’identificazione diviene più accurata e definita”, ha commentato Roy Choudhury, co-inventore dell’applicazione.
Ora il problema (di non poco conto) è: far funzionare telecamera e microfono da dentro una tasca e una borsa e soprattutto come limitare l’impatto sulla batteria. Per quanto riguarda invece l’utilità di una simile funzione gli scienziati non hanno dubbi, oltre allo spionaggio industriale e non, la vera miniera d’oro sarà la pubblicità. Basterà girare per un centro commerciale per ricevere offerte promozionali o cataloghi sul telefonino non appena messo piede in un negozio. (c.v.)
Riferimenti:
Duke University

mercoledì 23 settembre 2009

Autom: il piccolo robot 'sociale' che pensa alla vostra salute.

Fonte: Hi-TechItaly

Piccolo quasi quanto una confezione di latte, Autom è un robot interattivo sviluppato da Intuitive Automata per espletare le funzioni di "health coach", ovvero di personal trainer per la salute dell'utente.Dotato di funzioni sociali, grazie alla sua capacità di parlare e interagire con gli esseri umani, si pensa che Autom possa risultare utile soprattutto a chi combatte contro l'obesità, faticando a perdere peso per l'assenza di stimoli e gratificazioni; nel frattempo il piccolo automa è diventato testimonial del film di animazione Astro Boy.

Proprio questa è la funzione principale di Autom, che raccoglie i dati relativi all'esercizio fisico, alla dieta e quant'altro inseriti dall'utente e li elabora, offrendo un aiuto interattivo anche vocale a chi ha bisogno di sentirsi spronato in attività poco gratificanti come quella del seguire diete strette ma, soprattutto, nella fase di mantenimento del peso raggiunto.Di Autom esiste anche una nuova versione, in via di sviluppo, che è in grado di seguire i movimenti dell'utente grazie alla videocamera installata sulla sua fronte, rivelandosi ancora di più un attento interlocutore, grazie anche alla sua capacità di elaborare discorsi sulla base di conversazioni precedenti.

Menti di Intuitive Automata sono Cory Kidd, laureato in robotica al Massachusetts Institute of Technology (MIT), la designer industriale Erica Young e l'esperto di software Bill McCord, che hanno sviluppato il prototipo del simpatico robottino.Proprio Autom sarà uno dei promotori ufficiali del nuovo film di animazione Astro Boy, realizzato dagli Imagi Studios di Hong Kong sulla base delle avventure a cartoni animati del celebre personaggio degli anime giapponesi Tetsuwan Atom, il bambino robot creato da Osamu Tetsuka.

Discovery Science: Geomagnetismo, L'inversione dei poli magnetici terrestri.



Voyager: 21-12-2012, La fine di un Mondo?





Voyager - UFO in Ecuador (Video Documentario)



Voyager - Ufo In America (VIDEO Documentario)





Come il cervello crea nuovi concetti.

Fonte:
Una ricerca evidenzia il ruolo centrale dell'ippocampo, che rivela di svolgere una essenziale funzione di "consulenza" nei confronti dei moduli decisionali della corteccia prefrontale.
Come si formano i concetti? "Anche se un barboncino e un golden retriever appaiano molto differenti l'uno dall'altro, possiamo facilmente apprezzarne gli attributi comuni perché riconosciamo in essi esempi di un particolare concetto, in questo caso quello di cane", spiega Dharshan Kumaran dell'University College di Londra, che ha diretto uno studio, ora pubblicato sulla rivista "Neuron", che chiarisce alcuni passi fondamentali di questo processo. Le modalità con cui i concetti si formano nel cervello e concorrono a guidare le nostre scelte sono infatti ancora ben lontane dall'essere chiarite. L'ipotesi prevalente è che ad avere un ruolo critico nell'acquisizione della conoscenza concettuale sia l'ippocampo, una struttura essenziale per la formazione della memoria. Tuttavia finora non si disponeva di solide prove che confermassero questa ipotesi. Kumaran e colleghi hanno così progettato alcuni esprimenti che permettessero di mappare la nascita e l'applicazione di nuovi concetti nel cervello.I soggetti in esame partecipavano a un gioco in cui avevano l'opportunità di conseguire un guadagno prevedendo correttamente se in una serie di giornate virtuali il tempo sarebbe stato soleggiato o piovoso sulla base di come appariva il cielo notturno delle giornate precedenti, descritto attraverso una serie di schemi sul monitor di un computer. Prima di ogni seduta sperimentale ai soggetti veniva dato da memorizzare uno schema degli esiti associati con ogni singolo schema di cieli notturni. Vari gruppi di questi schemi erano peraltro concettualmente correlati l'uno all'altro (come i barboncini e i golden retriever), così che riconoscendone l'affinità il test veniva facilmente superato con successo. Successivamente i soggetti potevano applicare la conoscenza così acquisita in ulteriori test in cui i concetti erano simili per quanto gli schemi apparissero nuovi. Attraverso una serie di misurazioni comportamentali e neuronali, i ricercatori hanno così potuto scoprire che a presiedere all'emergenza della conoscenza concettuale è un circuito cerebrale che vede funzionalmente accoppiati l'ippocampo e la corteccia prefrontale ventromediale.Tuttavia, era solo l'osservazione dell'attività dell'ippocampo che permetteva di prevedere quali soggetti sarebbero stati in grado di applicare con successo i concetti appresi alle situazioni nuove. "Ciò suggerisce che probabilmente sia l'ippocampo a creare e immagazzinare questi concetti, per poi passarli alla corteccia prefrontale quando possono essere sfruttati", spiega Kumaran. "Il nostro studio offre una nuova prospettiva sulla capacità umana di scoprire la struttura concettuale dell'esperienza visiva, e rivela che le cosiddette regioni della 'memoria', come l'ippocampo, collaborano con i 'moduli decisionali' della corteccia prefrontale rendendo disponibili queste informazioni." (gg)

Forse, solventi diversi dall'acqua potrebbero permettere lo sviluppo di forme di vita alternative.

Fonte:
Un gruppo internazionale di ricerca sta studiando la possibilità che solventi diversi dall'acqua possano permettere lo sviluppo di forme di vita alternative a quelle possibili in un ambiente planetario di tipo terrestre.
Allo European Planetary Science Congress appena conclusosi a Potsdam, in Germania, un gruppo di ricerca coordinato da Maria Firneis e Johannes Leitner dell'Università di Vienna ha presentato le linee di un progetto per l'identificazione di marcatori biologici relativi a possibili forme di vita esotiche su altri pianeti, ossia forme di vita che non sfruttino come solvente vitale l'acqua.
Attualmente i pianeti che possono ospitare la vita vengono cercati all'interno di quella che è considerata la zona abitabile attorno alla loro stella e l'attenzione si appunta su quelli dotati di un'atmosfera in cui siano presenti biossido di carbonio, vapore acqueo e azoto, e sulla cui superficie potrebbe esserci acqua allo stato liquido. Quindi si va alla ricerca di marcatori che potrebbero essere prodotti dal metabolismo di forme di vita simili a quelle che ospita il nostro pianeta, per le quali l'acqua funge da solvente e i mattoni costitutivi sono rappresentati dagli amminoacidi formati sostanzialmente da atomi di carbonio e ossigeno. Queste tuttavia, osservano i ricercatori, non è affatto detto che siano le uniche condizioni in cui possa svilupparsi la vita.
“E' tempo di fare un radicale cambiamento nella nostra concezione geocentrica della vita”, ha dichiarato Leitner. “Anche se questo è il solo tipo di vita che conosciamo, non si può escludere che da qualche parte si siano evolute forme di vita che non siano in rapporto né con l'acqua né con un metabolismo basato sul carbonio e sull'ossigeno.”
Una delle condizioni necessarie a sostenere la vita è che il solvente resti liquido per un ampia gamma di temperature: ciò vale per l'acqua fra 0°C e 100°C, ma esistono altri solventi che permangono allo stato liquido a più di 200 °C. Solventi simili potrebbero formare oceani anche su pianeti che ben più vicini alla loro stella di quanto si possa supporre in base alla definizione di zona abitabile basata sulle condizioni terrestri.
Ma potrebbe presentarsi anche la situazione opposta: un oceano di ammoniaca liquida può esistere a distanze superiori a quella tipica della zona abitabile per forme di vita di tipo terrestre; e parte della superficie di Titano è occupata da oceani di metano ed etano.
Il gruppo di ricerca, che ha base a Vienna, ma collabora con diversi centri internazionali, sta così studiando le proprietà di un'ampia gamma di solveti differenti dall'acqua per individuare la loro eventuale capacità di originare e far evolvere forme di vita alternative. (gg)

Inaugurata la prima 'Demo Station' europea: Presentata la Magnegas.

Fonte:
Nasce dalla fisica del più grande acceleratore del mondo il Large Hadron Collider (Lhc) di Ginevra, la macchina che a partire da qualsiasi liquido produce un nuovo combustibile, il Magnegas e che, arrivata per la prima volta in Europa, a Benevento, oggi è stata messa in funzione (Guarda il VIDEO del Quaderno.it). Nel capoluogo sannita è stata realizzata, infatti, l’unica Demo Station europea della tecnologia, che resterà la sola in Europa per accordi presi con l’inventore della macchina, il fisico Ruggiero Maria Santilli che dopo la laurea all’università Federico II di Napoli (dove ha avuto come docente il matematico Renato Caccioppoli) dal ’67 vive negli Stati Uniti dove ha lavorato anche presso il Massachusetts Institute of Technology (Mit). Questa mattina, inoltre, è stato sottoscritto un accordo fra i rappresentanti di Futuridea, la società Magnegas Italia e il responsabile della Magnegas Ermanno Santilli, dove si stabilisce che potranno venire da tutta Europa per assistere nella Demo Station ai test di questa tecnologia e assistere alle prove di carburazione. MagneGas è un combustibile bruciabile pulito e competitivo nei costi, che è intercambiabile con il gas naturale. Ha una minima emissione di gas ad effetto serra, comparandolo con combustibili fossili, ed emette pochissimo rumore e nessun inquinamento dell'aria e acqua. Il carburante può essere usato per produrre elettricità, cucinare, riscaldare, come gas naturale per automobili, e per tagliare i metalli (con la fiamma ossidrica) al posto dell’inquinante acetilene. Le caratteristiche di questo gas sono straordinarie: oltre alla minima emissione di gas serra ha la particolarità di emettere ossigeno. Proprio questa pomeriggio sono stati eseguiti in diretta davanti al pubblico una serie di test di carburazione con l’analizzatore dei gas di scarico autorizzato dal ministero dei Trasporti e si è potuto vedere che dal tubo di scarico veniva emesso il 14% di ossigeno, (altri carburanti 0,2-0,6%) e il 5,95% di anidride carbonica. Il gas viene prodotto dalla macchina (un vero e proprio riciclatore) a partire da molti tipi di sostanze di scarto industriali (acque reflue dei frantoi, sieri delle industrie lattiero casearie, liquami zootecnici, percolato, oli esausti).Il sistema è imperniato sulla "chimica adronica", una nuovissima branca della chimica (che deriva dalla "fisica adronica", quella per cui è stato costruito l'Lhc) che studia un nuovo tipo di legame molecolare (diverso dal legame di valenza) con lo scopo di avvicinarsi il più possibile a una combustione perfetta, cioè senza residui inquinanti. Questo avviene attraverso un processo denominato ArcFlow(TM) che trasforma numerosi tipi di sostanze industriali di scarto in prodotti utilizzabili, tra cui il Magnegas(R): carburante molto competitivo se si considera il suo doppio vantaggio ambientale: durante il suo uso si inquina pochissimo, quasi niente, e durante la sua produzione si smaltiscono sostanze inquinanti. La tecnologia per produrlo è arrivata a Benevento nel giugno scorso per iniziativa del presidente di Futuridea Carmine Nardone. All’evento di oggi sono intervenuti l’assessore all’Agricoltura della Regione Campania Gianfranco Nappi, l’assessore all'Energia della Provincia di Benevento, Gianvito Bello, il presidente della Provincia Aniello Cimitile, il sindaco di Benevento Fausto Pepe.