giovedì 29 ottobre 2009

Video intervista a Stanislav Grof (sottotitoli ITA): Un'avventura incredibile.





"Mentre il modello tradizionale della psichiatria e della psicoanalisi è strettamente personalistico e biografico, l’attuale ricerca sulla coscienza ha aggiunto nuovi livelli, regni e dimensioni e mostra che la psiche umana è essenzialmente commisurata all’intero universo e all’intera esistenza". (Stanislav Grof )

Un’area di ricerca sulla quale il modello olografico ha avuto un impatto è la psicologia . Questo non è sorprendente, poiché, come Bohm ha fatto notare, la coscienza stessa fornisce un perfetto esempio di ciò che egli intende per movimento indiviso e fluido. Il flusso e riflusso della nostra coscienza non è precisamente definibile, ma può essere considerato come una realtà più profonda e fondamentale dalla quale scaturiscono i nostri pensieri e idee. A loro volta, questi pensieri e idee non sono dissimili dalle increspature, turbini e vortici che si formano in un ruscello che scorre, e, come i vortici in un ruscello, alcune possono ripetersi e persistere in modo più o meno stabile, mentre altre sono evanescenti e scompaiono alla stessa velocità con la quale appaiono.L’idea olografica fa luce anche sulle inspiegabili connessioni che possono a volte verificarsi fra le coscienze di due o più individui. Uno degli esempi più conosciuti di una simile connessione è espresso nel concetto di inconscio collettivo formulato dallo psichiatra svizzero Carl Jung. Agli inizi della sua carriera, Jung si convinse che i sogni, i disegni, le fantasie e le allucinazioni dei suoi pazienti contenevano spesso simboli e idee che non si potevano interamente spiegare come prodotti della loro storia personale. Al contrario, quei simboli somigliavano maggiormente alle immagini e ai termini delle grandi mitologie e religioni del mondo. Jung giunse alla conclusione che miti, sogni, allucinazioni e visioni religiose scaturiscono tutte dalla stessa sorgente, un inconscio collettivo comune a tutte le persone.Un’esperienza che condusse Jung a questa conclusione si verificò nel 1906 ed ebbe a che vedere con l’allucinazione di un giovane che soffriva di schizofrenia paranoide. Un giorno, durante i suoi giri di ispezione, Jung trovò il giovane in piedi davanti alla finestra che fissava il sole. L’uomo muoveva anche la testa da un lato all’altro in modo singolare. Quando Jung gli domandò cosa stesse facendo, egli spiegò che stava osservando il pene del sole, e che quando muoveva la testa da un lato all’altro, il pene del sole si muoveva facendo soffiare il vento.All’epoca, Jung interpretò l’asserzione dell’uomo come frutto di un’allucinazione. Ma parecchi anni più tardi si imbatté in una traduzione di un testo religioso persiano antico di duemila anni, che gli fece cambiare idea. Il testo consisteva di una serie di riti e invocazioni atti a provocare visioni. Descriveva una delle visioni e diceva che se il partecipante avesse guardato il sole, avrebbe visto un tubo pendente da esso, e che quando il tubo si fosse mosso da un lato all’altro avrebbe fatto soffiare il vento. Dato che le circostanze rendevano estremamente improbabile il fatto che l’uomo avesse avuto contatto con il testo contenente il rito, Jung giunse alla conclusione che la visione del giovane non era un semplice prodotto della sua mente inconscia, ma che affiorata da un livello più profondo, dall’ inconscio collettivo della stessa razza umana. Jung definì questo tipo di immagini archetipi e riteneva che fossero così antichi che era come se ciascuno di noi avesse la memoria di un uomo dell’età di due milioni di anni nascosta in qualche punto nelle profondità delle nostre menti inconsce.Nonostante il concetto junghiano di inconscio collettivo abbia avuto un grandissimo impatto sulla psicologia e sia ora accettato da moltissimi psicologi e psichiatri, la nostra attuale comprensione dell’ universo non fornisce alcun meccanismo che ne spieghi l’esistenza. L’interconnessione di tutte le cose prevista dal modello olografico tuttavia, offre una spiegazione. In un universo in cui tutto è infinitamente interconnesso, anche tutte le coscienze sono interconnesse. Malgrado le apparenze, siamo esseri senza confini. O, come dice Bohm: “in profondità, la coscienza del genere umano è una sola”.Se ciascuno di noi ha accesso alla conoscenza inconscia dell’intera razza umana, perché non siamo tutti enciclopedie viventi? Lo psicologo Robert M. Anderson Jr., del Rensselaer Polytechnic Institute a Troy, New York, ritiene che ciò accada perché siamo in grado di attingere solo a quelle informazioni dall’ordine implicito direttamente pertinenti alle nostre memorie. Anderson definisce questo processo selettivo risonanza personale e lo paragona al fatto che un diapason vibrante risuona con (o provoca una vibrazione in) un altro diapason solo se il secondo diapason possiede una struttura, una forma e una dimensione, simili. “Per via della risonanza personale, relativamente poche della quasi infinita varietà di ‘immagini’ nella struttura olografica implicita dell’ universo sono disponibili alla coscienza personale di un individuo”, dice Anderson. “Perciò, quando persone illuminate intravidero questa coscienza unitaria secoli fa, non scrissero una teoria della relatività, poiché non stavano studiando la fisica in un contesto simile a quello in cui Einstein la studiò”.

Fonte: http://www.altrogiornale.org/news.php?extend.5478.9

martedì 27 ottobre 2009

Radiazioni a basse dosi potrebbero causare cardiopatia e ictus.

Fonte: Cordis
Il rischio di cardiopatia e ictus legato alle radiazioni a basse dosi - come quelle usate per le lastre a raggi-X - potrebbe essere stato fortemente sottovalutato, secondo uno studio in parte finanziato dalla Commissione europea. I risultati, pubblicati la scorsa settimana nella rivista Public Library of Science (PLoS) Computational Biology, sono in linea con i livelli di rischio riportati da studi sulle radiazioni precedenti, che avevano coinvolto i lavoratori del settore nucleare. Il team di ricerca dell'Imperial College London (Regno Unito) hanno creato un modello matematico per prevedere il rischio di cardiopatia associato alle radiazioni di basso livello. I risultati hanno mostrato che il rischio di malattia coronarica e ictus - oggi due delle maggiori cause di decesso nel mondo industrializzato - varia a seconda della dose di radiazione. Lo studio fa parte del progetto quinquennale CARDIORISK ("The mechanisms of cardiovascular risks after low radiation doses"), finanziato dall'UE con 3,8 milioni di euro attraverso l'area tematica EURATOM-FISSION del Settimo programma quadro (7° PQ). La cardiopatia e l'ictus - malattie mortali e disabilitanti - gravano fortemente sul bilancio delle organizzazioni sanitarie di tutti i paesi del mondo industrializzato. Nel Regno Unito, ad esempio, la cardiopatia è la maggiore singola causa di morte, uccidendo ogni anno oltre 125.000 persone prematuramente. I fattori legati alla dieta sono spesso implicati nella malattia cardiaca, ma gli autori dello studio avanzano prove sulla sua aumentata incidenza in gruppi di persone "esposte professionalmente", come ad esempio i lavoratori del settore nucleare. Da tempo gli scienziati sapevano che l'incidenza di cardiopatia vascolare era maggiore nei gruppi di pazienti che erano stati sottoposti a radioterapia ad alte dosi, perché la radioterapia può causare l'infiammazione del cuore e delle arterie. Studi recenti hanno però mostrato il collegamento tra la cardiopatia vascolare e dosi molto più basse di radiazione in gruppi come i lavoratori del settore del nucleare. Le ragioni alla base di questi collegamenti non sono conosciute. Il dottor Mark Little e il gruppo di ricercatori presso l'Imperial College London hanno avanzato l'ipotesi che le radiazioni uccidono i monociti (un tipo di leucociti) nelle pareti delle arterie che altrimenti si legherebbero alla proteina chemiotattica per i monociti (MCP-1). Il conseguente aumento dei livelli di MCP-1 causerebbe l'infiammazione che porta alla cardiopatia vascolare. Gli autori dello studio hanno detto: "Stanno emergendo delle prove sul rischio aumentato di cardiopatia vascolare in determinati gruppi di lavoratori esposti a irradiazione frazionata a bassa dose/frazione. I meccanismi d'azione dell'irradiazione frazionata a bassa dose sulla cardiopatia vascolare rimangono comunque poco chiari". Sono ora in programma ulteriori ricerche sulla cardiopatia vascolare causata da radiazione, per riuscire a scoprire il processo biologico che la determina.
Per maggiori informazioni, visitare: Imperial College Londra:
http://www3.imperial.ac.uk/ PLoS Computational Biology: http://www.ploscompbiol.org/home.action Maggiori informazioni sulla ricerca sulla salute finanziata dall'UE. http://ec.europa.eu/research/health/index_en.html
ARTICOLI CORRELATI: 12759
Categoria: ProgettiFonte: Imperial College London; PLoS Computational BiologyDocumenti di Riferimento: Little, M P, et al. (2009) A model of cardiovascular disease giving a plausible mechanism for the effect of fractionated low-dose ionizing radiation exposure. PLoS Computational Biology (in corso di stampa, pubblicato online il 23 ottobre).Acronimi dei Programmi: MS-UK C, FP7, FP7-EURATOM, FUTURE RESEARCH-->Codici di Classificazione per Materia: Fissione nucleare; Scienze biologiche; Medicina, sanità; Sicurezza; Ricerca scientifica
RCN: 31402

lunedì 26 ottobre 2009

BBC News, LHC: Iniettati con successo i primi fasci di particelle ...si riparte!

Fonte: BBC News
Engineers working on the Large Hadron Collider (LHC) have successfully injected beams of particles into two sections of the vast machine.
An LHC spokesperson said this was the first time particle beams had been inside the LHC since it was shut down late in September 2008.
Scientists working on the giant particle accelerator described the success as "a milestone".
They plan to circulate a beam around the 27km-long tunnel in November.
The LHC was closed down shortly after its switch-on last year, when a magnet problem called a "quench" caused a tonne of liquid helium to leak into its tunnel.
Since then, engineers have been working to repair the damage. Recently, all eight sectors of the LHC were cooled to their operating temperature of 1.9 kelvin (-271C; -456F) - colder than deep space.
On 23 and 25 October, beams of protons and of lead ions were injected into the LHC ring, and successfully guided both clockwise and anti-clockwise through two of the eight sectors. Each sector is approximately 3.5km long.
The extreme cold allows the magnets inside the LHC, which align and accelerate the beam, to become "superconducting". This means they channel electric current with zero resistance and very little power loss.
Gianluigi Arduini, deputy head of hardware commissioning for the LHC, told BBC News the beam test showed that the collider's machinery was operating properly.
"This is a work of synchronisation," he said.
"The fast magnets must be synchronised to accelerate the beam and transfer it from one accelerator to the next and eventually to the LHC, which must be synchronised to accept it.
"This whole process happens within a few hundred picoseconds - one picosecond is a millionth of a millionth of a second."
The beams were injected at 450 billion electron volts, only a fraction of the energy that scientists will aim for when they attempt to collide two particle beams.
Two beams of particles will be fired down pipes running through the magnets - travelling in opposite directions at close to the speed of light.
Mr Arduini said: "The aim once the beam is circulating is to accelerate [it] up to 3.5 [trillion electron volts].
"But that will be in stages. We will first go to one, then 3.5... then from 2011 we're going to try to go to seven."
At allotted points around the tunnel, the proton beams cross paths, smashing into one another.
Scientists hope to see new particles in the debris of these collisions that could reveal insights into the "Big Bang" and the nature of the Universe.

Bestiame a rischio di infezioni, a causa di animali selvatici.

Fonte: Cordis
Ricercatori finanziati dall'UE hanno scoperto che gli animali selvatici potrebbero essere i vettori di un batterio che probabilmente è legato al morbo di Crohn, una malattia infiammatoria dell'intestino. Presentati nella rivista ad accesso libero BMC Microbiology, i risultati dello studio appoggiano la teoria delle riserve selvatiche di malattie infettive. La ricerca è stata parte dei progetti ASSESS MPTB RISK e PARA-TB TRANSMISSION, finanziati nell'ambito del Quinto programma quadro (5° PQ) con una somma di 719 224 euro e 1,3 milioni di euro rispettivamente. Guidati dal Moredun Research Institute in Scozia (Regno Unito), i ricercatori hanno chiarito come il Mycobacterium avium sottospecie paratuberculosis (Map), è l'agente causale della paratubercolosi o malattia di Johne - una malattia letale incurabile - che colpisce i bovini adulti. La trasmissione del batterio dagli animali selvatici al bestiame può provocare ingenti danni economici all'industria dell'allevamento. "L'epidemiologia del Map è poco conosciuta, in particolare rispetto al ruolo delle riserve selvatiche e alla questione controversa del potenziale zoonosico (morbo di Crohn)", mostra lo studio. I ricercatori britannici, insieme ai loro colleghi in Francia, Germania, Grecia, Norvegia, Paesi Bassi, Repubblica ceca e Spagna, hanno usato 3 tecniche di genotipizzazione per individuare i ceppi specifici del Map in 164 campioni prelevati da 19 specie da allevamento e selvatiche. "Genotipi identici sono stati ottenuti da Map isolati in diverse specie presenti su una stessa proprietà, cosa che suggerisce che avviene una trasmissione tra le specie", scrivono gli autori dello studio. "Il map infetta varie specie selvatiche e specie ospiti che potrebbero rappresentare riserve potenziali per le infezioni del bestiame da allevamento e avere gravi ripercussioni sul controllo dell'infezione da paratubercolosi". Secondo i ricercatori, il Map è collegato ai batteri che causano la tubercolosi nell'uomo. Esso è stato anche collegato al morbo di Crohn umano, ed è responsabile di casi gravi di diarrea nei ruminanti. "Lo studio è stato condotto per determinare la diversità genetica del Map, aumentare la nostra conoscenza sul tasso e la distribuzione dell'ospite, e per valutare il potenziale della trasmissione tra le specie", scrivono gli autori. Il team ha detto che occorre ulteriore impegno per determinare il ruolo delle riserve selvatiche di malattie infettive e per capire se la trasmissione è passiva o attiva. Ulteriori studi dovrebbero anche analizzare le probabilità di quando e come gli animali selvatici entrano in contatto con i ruminanti domestici. ASSESS MPTB RISK ("Paratuberculosis epidemiology and risk assessment: novel approaches to identify strain-specific markers") e PARA-TB TRANSMISSION ("The role of wildlife in the epidemiology of Mycobacterium avium subspecies paratuberculosis in domestic ruminants in Europe") sono stati supportati dal programma tematico "Qualità della vita e gestione delle risorse viventi del 5° PQ.
Per maggiori informazioni, visitare: BMC Microbiology:
http://www.biomedcentral.com/bmcmicrobiol/ Moredun Research Institute: http://www.mri.sari.ac.uk/
ARTICOLI CORRELATI: 30887
Categoria: Risultati dei progettiFonte: BMC MicrobiologyDocumenti di Riferimento: Stevenson, K., et al (2009) BMC Microbiology, pubblicato online il 7 ottobre. DOI: 10,1186/1471-2180-9-212.Acronimi dei Programmi: FRAMEWORK 5C, LIFE QUALITY-->Codici di Classificazione per Materia: Agricoltura; Coordinamento, cooperazione; Scienze biologiche; Medicina, sanità; Ricerca scientifica; Scienze veterinarie e degli animali
RCN: 31399

Codice Genesi: Profezie e messaggi occulti celati nella Sacra Bibbia (Video Documentario)





Un laser a yoctosecondi.

Fonte: Le Scienze
Sfruttando il plasma quark-gluoni che può essere creato negli acceleratori sarebbe possibile generare impulsi della durata di un milionesimo di miliardesimo di miliardesimo di secondo.
Micro, nano, pico, femto, atto, zepto, yocto: non è una filastrocca nonsense ma la serie dei prefissi che indicano ordini di grandezza via via più piccoli. Fino a poco tempo fa si riteneva che gli ultimi due fossero stati creati più per gusto di completezza del sistema di misura che per una loro reale utilizzabilità. Ma pare che non sia così: un gruppo di ricercatori del Max-Planck-Institut per la fisica nucleare a Heidelberg ha mostrato come sia possibile progettare un laser a yoctosecondi. Per dare un'idea delle misure in gioco basti dire che uno yoctosecondo (10-24 s) rappresenta il tempo che la luce impega a coprire una distanza pari al diametro del nucleo di un atomo. Attualmente i laser più veloci possono produrre impulsi non più brevi di pochi femtosecondi (10-15 s), per quanto sia poi possibile ottenere impulsi dell'ordine degli attosecondi sfruttando le armoniche che risultano dall'interazione non lineare degli impulsi di femtosecondi con reticoli di atomi.Come scrivono Jörg Evers e colleghi in un articolo pubblicato sulle "Physical Review Letters", la chiave per ottenere impulsi di pochi yoctosecondi è quella di sfruttare la luce emessa da un plasma quark-gluoni, una "zuppa" di quark e gluoni (i vettori della forza che tiene uniti i quark nei protoni e nei neutroni) liberi. Si ritiene che questo stato della materia non sia più esistito in natura già un milionesimo di secondo dopo il big bang, ma può essere ricreato all'interno di acceleratori di particelle facendo collidere ioni pesanti ad altissime energie, come è già stato fatto nel Relativistic Heavy Ion Collider (RHIC) presso il Brookhaven Laboratory e lo sarà presto nel Large Hadron Collider (LHC) al CERN di Ginevra.I ricercatori, in particolare, hanno indicato il metodo con cui sarebbe possibile sfruttare l'emissione di fotoni che si verifica durante il raffredddamento di quel plasma per generare gli impulsi laser voluti. Sfruttando questa tecnica sarebbe possibile chiarire i processi che avvengono all'interno dei nuclei atomici, comprendere le reazioni all'interno delle stelle compatte e delle supernove e forse migliorare i progetti per i futuri reattori a fusione. In fondo, ricordano i ricercatori, le misurazioni alla scala dei femtosecondi hanno già trovato applicazione industriale per esempio nello studio dei processi di combustione per la progettazione di nuovi impianti di potenza. (gg)

Autismo e schizofrenia: facce opposte di una medaglia?

Fonte: Le Scienze

Le due patologie appaiono correlate a variazioni opposte nel numero di copie di una stessa regione cromosomica, nota come 16p11.2.
Una mutazione sul cromosoma 16, già correlata all'autismo, è responsabile di un forte aumento del rischio di sviluppare una schizofrenia: la scoperta è stata fatta da un gruppo di ricercatori del Cold Spring Harbor Laboratory (CSHL) diretti da Jonathan Sebat, che firmano un articolo pubblicato su "Nature Genetics". La mutazione in questione riguarda una "variazione del numero di copie" (CNV), ossia una di quelle regioni del genoma in cui il numero di copie dei geni presenti differisce da persona a persona. In questo caso la regione interessata è quella indicata come 16p11.2. In passato un aumento di rischio di schizofrenia è stato collegato ad alcune delezioni sui cromosomi 1, 15 e 22.La mutazione identificata - rappresentata in questo caso dalla presenza di una copia in più di questa regione - costituisce in effetti un notevole fattore di rischio: "Nella popolazione generale questa duplicazione è piuttosto rara, e occorre in circa una persona su 5000, ma per quanti sono portatori di una copia extra, il rischio di sviluppare una schizofrenia aumenta di oltre otto volte", osserva Sebat. "Non è la prima volta che la regione 16p11.2 attira la nostra attenzione", ha poi aggiunto Sebat: in uno studio del 2007 condotto da Sebat e Michael Wigler, anch'egli al CSHL, proprio in quella stessa regione era stata notata una delezione in una ragazza affetta da autismo, un'associazione che ha poi trovato conferma in altri studi che hanno documentato un aumento del rischio di autismo correlato alla perdita di una copia di 16p11.2. Congiuntamente, questi studi suggeriscono come alcuni geni influenzino tanto la schizofrenia quanto l'autismo: "In un certo senso possiamo considerare i due disturbi come gli estremi opposti di uno stesso processo neurobiologico", aggiunge Shane McCarthy, che ha partecipato allo studio. "Un processo che è influenzato dal numero di copie di geni che si trovano sul cromosoma 16." Un'ipotesi è che la perdita di 16p11.2 porti alla privazione di geni chiave nello sviluppo cerebrale, mentre una copia in più porterebbe a effetti opposti. (gg)

Leggere i DVD con gli occhi dei crostacei.

Fonte: Le Scienze
Le cellule degli occhi degli stomatopodi sono più efficienti dei dispositivi artificiali poiché funzionano bene a tutte le lunghezze d'onda e non solo a una ben definita frequenza.
Le incredibili caratteristiche degli occhi di un crostaceo marino potrebbero inspirare una nuova generazione di dispositivi di lettura di DVD e CD, stando a quanto riferiscono sulla rivista Nature Photonics alcuni ricercatori dell'Università di Bristol.
Gli animali dell'ordine degli stomatopodi a cui si riferisce lo studio vivono nella Grande barriera corallina australiana e possiedono l'apparato visivo più complesso finora mai descritto. Essi possono infatti vedere in 12 colori e distinguere tra differenti stati di polarizzazione della luce.
Speciali cellule fotosensibili agiscono infatti come lamine a quarto d'onda, dispositivi ottici in grado di far ruotare il piano di polarizzazione di una radiazione luminosa che li attraversa, e consentono agli stomatopodi di convertire la luce a polarizzazione lineare in luce a polarizzazione circolare e viceversa.
Nuove prospettive tecnologiche si aprono al mondo dell'elettronica tenuto conto che le lamine a quarto d'onda artificiali sono una componente essenziale dei lettori di CD e DVD, così come dei filtri ottici polarizzatori. Questi dispositivi artificiali hanno però l'inconveniente di funzionare bene su una ben definita lunghezza d'onda, mentre il meccanismo osservato negli stomatopodi è praticamente costante su tutto lo spettro elettromagnetico, dall'ultravioletto all'infrarosso.
Non è ancora chiaro, in ogni caso, per quale motivo gli stomatopodi posseggano un simile apparato visivo. Secondo le attuali conoscenze, distinguere la polarizzazione della luce serve in genere ad alcune specie animali per trasmissione di segnali sessuali o non rilevabili dai predatori. Negli animali marini, inoltre, consente di migliorare la visione in acqua.
"Uno degli aspetti sorprendenti è che una struttura così semplice dell'apparato, che comprende membrane cellulari disposte in forme tubolari, supera in funzionalità i dispositivi sintetici”, ha spiegato Nicholas Roberts, coautore dello studio. Capire come funziona potrebbe consentire di realizzare dispositivi a cristalli liquidi in grado di riprodurre le proprietà delle cellule dell'occhio degli stomatopodi.” (fc)

sabato 24 ottobre 2009

Progetto "Presenccia": le nuove frontiere della Realtà Virtuale (con Video)

Fonte: Euronews
-------------------------------------
-------------------------------------
Benvenuti in un mondo di piastrelle luminose che aprono le porte di un regno sotterraneo: come Alice, entriamo nel paese delle meraviglie della realtà virtuale.
Paul Verschure, ICREA
“Siamo nel campo dell’induzione dell’esperienza tramite una macchina, che è stata ideata grazie al progetto PRESENCCIA. Lo scopo è capire come l’eseere umano interagisce con un ambiente reale e uno virtuale”.
Puo sembrare un attrazione da parco dei divertimenti, ma la macchina per l’induzione dell’esperienza si basa su una solida ricerca scientifica. Una delle sfide principali è la creazione di un ambiente di realtà virtuale che risulti credibile. Credibile cioe’ per il nostro cervello.
Paul Verschure, ICREA
“Se l’immagine riprodotta fosse un po’ a scatti, per noi questa non sarebbe un’esperienza credibile. Quello che stiamo cercando di creare qui da un punto di vista psicologico è come alimentare le attese generate di continuo dal nostro cervello, attese sul mondo esterno. Ma la realtà virtuale generata deve rispondere non solo alle mie attese personali, ma a quelle di qualsiasi persona che entri in questo spazio”.
La sede di questo progetto è a Barcellona, ma la realtà virtuale non poteva certo avere confini e distanze. Colleghi di tutta europa stanno lavorando per uscire dalla classica interazione con un computer attraverso l’interfaccia di una tastiera, di un mouse, di uno schermo.
A Gratz in Austria Petar Horki lavora a un sistema per entrare in una realtà virtuale utilizzando solamente il potere della mente. Basta pensare al movimento, alla camminata per esempio, per far muovere i sensoori che nelal cuffia reagiscono all’attività del suo cervello. Quindi si ottiene una risposta nel computer.
Petar Horki, Master student, Gratz
“In realtà non sto facendo niente, immagino solamente di fare un brusco moviemnto con un piede, e la mia immaginazione può muovere la rappresentazione virtuale”.
Questa scoperta potrebbe servire a comunicare con pazienti colpiti da paralisi o in stato di coma.
Gert Pfurtscheller, Professor TU Gratz
“Il paziente deve muovere la sedia a rotelle mentalmente usando la forza del pensiero. L’effetto è lo stesso sia che la seria a rotelle è reale o virtuale. La realtà virtuale è un metodo di scoperta in questo campo, un metodo poco costoso e per nulal pericoloso”.
Nel mondo virtuale, non importa se un altro partecipante a questo progetto si trova fisicamente dall’altra parte di Gratz.
Christoph Guger lavora a un sistema di controllo tramite i flash sullo schermo.
Christoph Guger CEO g.tec
“Attacchiamo elettrodi al cranio per misurare la corrente nel cervello. La persona deve allora guardare le icone che lampeggiano a diverse velocità, e il cervello reagirà all’icona che lo interessa. Il computer riconoscerà questo interesse e farà apparire l’icona desiderata. In questo modo si controlla il computer con il pensiero”.
Ogni volta che l’icona lampeggia, il cervello reagisce. Il cpmputer sa leggere questa reazione tramite la cuffia con gli elettrodi e esegue il comando.
Christoph Guger, CEO g.tec
“Nelle nostre ricerche abbiamo visto che 80 persone su 100 sono in grado di comandare il computer, ci basta fare un elettroencefalogramma preventivo”.
Usare il potere della mente per controllare un computer è una parte del progetto di ricerca europeo. L’altra consiste nel capire meglio noi stessi usando la realtà virtuale.
A Barcellona, Mar Gonzales si prepara ad entrare un un bar virtuale.
Mel Staler, PRESENCCIA Project
“Stiamo cercando di capire perchè la gente si comporta in un modo più o meno naturale in un ambiente virtuale”.
Indossata la visiera 3D e le cuffie Mar ha l’impressione di essere davvero nel bar.
Mar Golzales, ricercatore, Barcellona
“La conversazione con il cameriere virtuale sembra vera, si sente davvero il bisogno di rispondergli”.
Mel è convinto che il corpo umano sia la chiave per costruire una realtà virtuale convincente. Bisogna far interagire il soggetto con un mondo virtuale a misura umana perchè la mente creda che sia vero.
Mel Staler, PRESENCCIA Project
“Quando si intraprende un viaggio virtuale, la precezione di quello che accade la dentro è simile a quella della vita reale, si usa il proprio corpo, si piega la testa, si afferrano oggetti, ci si comporta in maniera naturale. Se il soggetto interagisce con la realtà virtuale allo stesso modo, con gli stessi meccanismi percettivi della vita reale, a un certo punto il cervello non può fare altro che dare l’illusione di essere in un posto vero e di interagire con gli oggetti che ci sono in quel posto”.
Queste idee sono messe alla prova nella macchina per l’induzione dell’esperienza, che utilizza sensori infrarossi e telecamere per ricostruire tutto su scala umana.
Paul Vershure, ICREA
“Pensiamo agli architetti che progettano un edificio – ora gruppi di architetti possono sperimentare insieme ed entrare fisicamente e virtualmente nel loro edificio immaginato”.
La realtà virtuale prima significava guardare lo schermo di un computer, magari in 3D. Ora è un’immersione totale.
Paul Vershure, ICREA
“La grande differenza è che posso entrare la dentro fisicamente, su una scala umana e realistica alla quale il mio cervello è abituato, e vivere l’esperienza ceh il mio cervello si aspetta di vivere in un ambiente reale. Non è più una debole rappresentazione, è molto vicina alla cosa vera, perchè abbiamo ora a che fare con l’esperienza a una scala di realismo psicologicamente credibile”.
Videogiochi ma anche progettazione e urbanismo, musei e cinema, terapie per diverse situazioni difficili possono essere le applicazioni di questa tecnologia.

Un autoassemblaggio efficace alle nanoscale.

Fonte: Le Scienze

I copolimeri a blocchi si autoassemblano in modo immediato in ben definite schiere di nanostrutture su distanze macroscopiche.
Sulla lunga strada delle nanotecnologie, che dovrebbe permettere un giorno di progettare e costruire oggetti combinandoli atomo per atomo, un metodo efficace per arrivare a tale risultato consiste nell’assemblaggio spontaneo dei "mattoni elementari", o autoassemblaggio. In questa direzione va il recente risultato di una ricerca effettuata presso il Lawrence Berkeley National Laboratory del Dipartimento dell’energia degli Stati Uniti che ha permesso di trovare un modo per indurre le strutture di dimensioni nanoscopiche ad assemblarsi in schiere complesse.Aggiungendo alcuni specifici tipi di piccole molecole a miscele di nanoparticelle e polimeri, i ricercatori sono infatti riusciti a dirigere l’autoassemblaggio in schiere mono, bi- e tridimensionali senza alcuna modificazione chimica né nelle nanoparticelle né nei copolimeri. Inoltre, la disposizione e le modalità di assemblaggio delle particelle potevano essere regolate in modo preciso mediante l’applicazione di opportuni stimoli esterni in forma di radiazione luminosa o di calore.“Il controllo preciso dell’organizzazione spaziale delle nanoparticelle e di altri mattoni elementari nanoscopici su diverse lunghezze d’onda ha rappresentato finora un 'collo di bottiglia' nello sviluppo di un approccio bottom-up per la produzione tecnologica di materiali”, ha commentato Ting Xu, che ha diretto lo studio e firmato l’articolo Small molecule-directed nanoparticle assembly towards stimuli-responsive nanocomposites, apparso sulla rivista “Nature Materials”. “Ora abbiamo dimostrato un approccio versatile per controllare in modo preciso la distribuzione spaziale di nanoparticelle facilmente applicabili a un ampio range di dimensionale, dal ‘nano’ al ‘macro’; la nostra tecnica può essere utilizzata su un ampia varietà di nanoparticelle, e potrebbe aprire nuove strade alla fabbricazione di dispositivi basati su tale tecnica, tra cui sistemi ad alta efficienza per la generazione e l’immagazzinamento dell’energia solare.”La tecnica che sfrutta molecole di DNA, impiegate per indurre l’autoassemblaggio delle nanoparticelle con un alto grado di precisione, funziona bene solo per schiere organizzate di dimensioni limitate, e diventa inutilizzabile per realizzazioni su larga scala. Xu ritiene invece che l’approccio migliore sia quello che sfrutta copolimeri a blocchi, lunghe sequenze di insiemi di un solo tipo di monomero.“I copolimeri a blocchi si autoassemblano in modo immediato in ben definite schiere di nanostrutture fino a costituire su distanze macroscopiche”, ha concluso la Xu. “Sarebbero perciò una piattaforma ideale per dirigere l’assemblaggio di queste strutture, anche se resta il problema che i copolimeri non sono particolarmente compatibili con altri tipi di nanoparticelle da un punto di vista chimico.” (fc)

Trasformare la luce in vibrazioni meccaniche.

Fonte: Le Scienze
Coniugando i principi della fotonica con quelli della fononica, ricercatori del Caltech sono riusciti a costruire un dispositivo che converte con efficienza la luce in energia meccanica.
Un gruppo di ricercatori del California Institute of Technology (Caltech) a Pasadena è riuscito a ottenere una micro-sbarretta di silicio che è in grado di convertire con elevata efficienza la luce in vibrazioni e viceversa. Questo risultato apre la strada a un nuovo campo d'indagine della fisica e alla progettazione di microcircuiti ottici di nuova concezione. Alcuni anni fa Kerry Vahala, sempre del Caltech, era riuscito a mettere in vibrazione un micro-dischetto di silicio con la luce trasmessa da una fibra ottica e più di recente Daniel Gauthier della Duke University a Durham, era riuscito a far vibrare la fibra ottica stessa, ma gli effetti erano di intensità e durata estremamente ridotte. Ora, Oskar Painter, Kerry Vahala, Matt Eichenfield e collaboratori hanno progettato un'apparecchiatura che - coniugando i principi della fotonica con quelli della fononica - aumenta il livello di interazione fra luce e vibrazioni di diversi ordini di grandezza, aprendo potenzialmente le porte a microchip ottici in cui vibrazioni di bassa frequenza controllano segnali ottici ad alta frequenza o viceversa. Da più di 10 anni sono stati sviluppati i cosiddetti cristalli fotonici, materiali in grado di trasmettere la luce che, dotati di uno schema regolare di cavità, ne alterano il cammino. L'alterazione può essere tale da interdire la propagazione di alcune lunghezze d'onda che finiscono per interferire e cancellarsi; con una accurata calibrazione della disposizione e delle dimensioni dei buchi è però possibile far si che esse, invece di cancellarsi, restino intrappolate nei cristalli. Anche per le onde sonore è possibile costruire strutture analoghe. Ora, come riferiscono in un articolo pubblicato su "Nature" online, Eichenfield, Painter e colleghi sono riusciti a ottenere un cristalli ibrido fotonico/fononico a base di silicio delle dimensioni di 1x20 micrometri dotato di un'efficienza di conversione tale da poter essere in prospettiva utilizzato per la creazione di circuiti optomeccanici. (gg)

venerdì 23 ottobre 2009

Abitanti dell'Isere, nel sud della Francia, hanno sporto denuncia contro la campagna di vaccinazione per il virus H1N1.

Fonte: ANSA
(ANSA) - PARIGI, 23 OTT - Alcuni abitanti dell'Isere, nel sud della Francia, hanno sporto denuncia contro la campagna di vaccinazione per il virus H1N1.Nella denuncia, depositata al tribunale di Grenoble, la campagna di vaccinazione viene giudicata come 'un vero e proprio tentativo di avvelenamento della popolazione'. Si tratta della prima denuncia di questo tipo in Francia, ma altre dovrebbero seguire nei prossimi giorni a Parigi, Pau e Nantes.

Con lo scioglimento dei ghiacciai, ritornano le vecchie sostanze inquinanti.

Fonte: Cordis
Lo scioglimento dei ghiacciai alpini potrebbe causare ingenti danni all'ambiente dovuti al rilascio di sostanze inquinanti rimaste intrappolate nei ghiacci per decine di anni. Questo è l'allarme lanciato da un gruppo di scienziati svizzeri. Il materiale derivante dallo scioglimento dei ghiacciai, fenomeno in crescita a causa del surriscaldamento globale, potrebbe contenere sostanze inquinanti fuori produzione o il cui uso è stato proibito. I ricercatori del Politecnico federale di Zurigo (ETH Zurich), del Laboratorio federale svizzero di prova dei materiali e di ricerca (EMPA) e dell'Istituto per la ricerca sulle acque nel settore dei politecnici federali (EAWAG) hanno analizzato gli strati sedimentari provenienti dal lago artificiale Oberaarsee, nelle Alpi svizzere. Gli scienziati sono stati in grado di ricostruire i processi che negli ultimi 60 anni hanno portato all'accumulo nei ghiacci di composti organici persistenti, e hanno pubblicato le proprie scoperte nella rivista Environmental Science and Technology. Secondo gli scienziati, questi composti, definiti "inquinanti storici", contribuiscono ad accelerare il processo di scioglimento dei ghiacciai e potrebbero essere alla base dell'incremento dei livelli di queste sostanze nelle regioni alpine. La presenza di inquinanti storici nelle Alpi rappresenta un pericolo per numerosi motivi, tra questi lo scioglimento del manto nevoso durante la stagione primaverile, l'utilizzo delle acque provenienti dallo scioglimento dei ghiacci da parte di aziende e singoli consumatori, e la maggiore esposizione specifica di esseri umani e animali a sostanze nocive. "Tenendo in considerazione il surriscaldamento globale in atto e le proiezioni che annunciano l'accelerazione dello scioglimento dei ghiacciai, il nostro studio indica quali sono i potenziali effetti nocivi degli inquinanti rilasciati negli ambienti ancora intatti", avvertono i ricercatori. Nel momento in cui i ghiacciai si sciolgono, le sostanze chimiche accumulate, deposte anni prima dalle correnti atmosferiche sugli strati di neve e poi congelate nei ghiacci, vengono trasportate nel lago glaciale più vicino mediante l'acqua di ruscellamento. Nel lago - insieme ad altre sostanze sospese nelle acque di scioglimento - esse precipitano sul fondale e si accumulano sotto forma di sedimenti. I ricercatori hanno cercato un'ampia serie di sostanze inquinanti, tra le quali i cosiddetti inquinanti organici persistenti, i pesticidi organo-clorurati e le fragranze muschiate sintetiche. I ricercatori sono riusciti a leggere gli strati sedimentari dei campioni provenienti dal lago artificiale Oberaarsee, individuando tre anelli, e risalendo strato per strato fino al 1953, anno di costruzione della diga che ha portato alla formazione del lago. La lettura degli anelli ha condotto non solo al riconoscimento delle sostanze inquinanti prodotte negli anni sessanta e settanta, ma anche ad osservare la loro diminuzione in seguito all'interdizione del loro impiego. È tuttavia allarmante che livelli di inquinamento crescenti siano evidenti a partire dagli anni Novanta. I ricercatori ritengono che un tale incremento del livello di inquinamento sia in parte dovuto al ruscellamento del ghiacciaio dell'Oberaar, che è diminuito di ben 120 metri solo nel corso dell'ultimo decennio e potrebbe aver rilasciato una quantità consistente di sostanze tossiche accumulate. I campioni provenienti dal Lago Oberaar sono stati confrontati con campioni provenienti da laghi che si trovano ad altitudini minori. I sedimenti provenienti da questi laghi non dimostravano lo stesso aumento di inquinanti storici alla fine degli anni novanta. I risultati avvalorano l'ipotesi secondo la quale i maggiori livelli di inquinanti storici nel lago svizzero siano imputabili allo scioglimento del ghiacciaio. Lo studio conclude: "La combinazione delle dinamiche del ghiacciaio e del ciclo inquinante è una questione complessa e rimane un ambito poco esplorato". La continuazione dell'attività di ricerca in questo campo potrebbe consentire di meglio comprendere la destinazione finale degli inquinanti organici persistenti negli ambienti alpini".
Per ulteriori informazioni, visitare: Politecnico federale di Zurigo (ETH Zurich):
http://www.tech.chem.ethz.ch/ltc-home.html Laboratorio federale svizzero di prova dei materiali e di ricerca (EMPA): http://www.empa.ch/ Istituto per la ricerca sulle acque nel settore dei politecnici federali (EAWAG): http://www.eawag.ch/index_EN Per scaricare lo studio, fare clic: qui
ARTICOLI CORRELATI: 26089
Categoria: VarieFonte: EMPADocumenti di Riferimento: Bogdal, C., et al. (2009) Blast from the past: melting glaciers as a relevant source for persistent organic pollutants. Environmental Science & Technology (online), pubblicato il 24 settembre 2009. DOI:10.1021/es901628x.Codici di Classificazione per Materia: Scienze della Terra; Protezione ambientale; Previsioni; Gestione dei rifiuti
RCN: 31392

Videomap: Un nuovo programma offrirà al guidatore “in anteprima” un video del tragitto da percorrere.

Fonte: Galileo
Un nuovo programma offrirà al guidatore “in anteprima” un video del tragitto da percorrere. Lo stanno sviluppando alla Microsoft.
Immaginate un sistema di navigazione che vi permetta di riconoscere una strada anche se non l’avete mai percorsa prima. Si chiama Videomap, un innovativo software che gli ingegneri della Microsoft stanno mettendo a punto in collaborazione con ricercatori dell’Università di Costanza, in Germania.
Come tutti i sistemi di navigazione, anche questo elabora una dettagliata mappa delle strade, riporta le indicazioni e segnala la direzione da seguire. Ma, a differenza di Google Maps o MapQuest, il sistema mostra all’utente foto panoramiche delle strade. Queste immagini, già disponibili, vengono montate insieme così da creare un vero e proprio video del tragitto. In questo modo, ancor prima di mettersi in viaggio, il guidatore sarà in grado di elaborare una mappa visiva dell’ambiente, memorizzando le immagini delle strade che percorrerà. “Quello che volevamo”, spiega l’ingegnere Microsoft Billy Chen, “era creare un sistema che potesse offrire all’utente indizi visivi ancor prima di entrare in macchina. Così che il guidatore abbia l’impressione di aver già percorso quella strada anche se non ci è mai stato prima”.
Per facilitare la memorizzazione del percorso, Videomap manipola il video sfruttando algoritmi particolari. Così, in prossimità di una svolta a destra, il video rallenta e si focalizza su eventuali indizi visivi presenti sul lato destro della strada. Lo stesso avviene quando si passa vicino a punti rilevanti di riferimento: il video si ferma e zooma sul particolare in questione in modo che l'utente fissi l’immagine nella memoria. Per il momento è stato testato solo su venti prsone in Austria: ai volontari è stato chiesto di simulare la guida in un percorso sconosciuto utilizzando prima le indicazioni di un normale sistema di navigazione, poi quelle di Videomap. Se nel primo caso i partecipanti sceglievano correttamente le svolte da prendere nel 60 per cento dei casi, con il nuovo navigatore la percentuale saliva a 80.
A chi si domanda che tipo di utilità possa avere un tale sistema di navigazione nell’era dei Gps, i ricercatori rispondono che Videomap può essere comunque uno strumento utile, anche per chi passeggia o si sposta in bici. Resta solo da migliorare l’interfaccia del software e lavorare sui sistemi di rilevamento dei punti di riferimento, che per adesso non vengono mostrati dal programma in modo automatico ma devono essere selezionati manualmente dall’utente. (m.s.)
Riferimento:
Technology Review

L'uso di Cannabis, a lungo andare potrebbe compromettere la fertilità maschile.

Fonte: MolecularLab
Non è più solo un sospetto. L'abuso di sostanze cannabinoidi, principali costituenti della marijuana, potrebbe contribuire a provocare l'infertilità nell'uomo. Lo ha confermato lo studio "The endocannabinoid system and pivotal role of the CB2 receptor in mouse spermatogenesis", aprendo nuove prospettive per la comprensione dei fenomeni di oligospermia o azospermia (drastica diminuzione o totale assenza del numero di spermatozoi, spesso con riduzione della motilità), in particolare in quei pazienti che presentano normale assetto cromosomico e assenza di difetti genetici noti o patologie occlusive.La ricerca, pubblicata sulla rivista Pnas-Proceedings of the National Academy of Sciences, è stata condotta in collaborazione tra ricercatori del Consiglio nazionale delle ricerche - Istituto di chimica biomolecolare (Icb-Cnr), Istituto di cibernetica (Ic-Cnr) e Istituto di biochimica delle proteine (Ibp-Cnr) - e dell'Università di Roma Tor Vergata. Essa dimostra per la prima volta come, nel topo, il sistema endocannabinoide (cioè il sistema su cui agisce anche la marijuana) sia coinvolto nel processo della spermatogenesi."Negli ultimi anni", spiega Pierangelo Orlando dell'Ibp-Cnr, "abbiamo assistito ad un aumento progressivo dell'incidenza dell'infertilità di coppia.
Secondo le più recenti statistiche a livello mondiale, sarebbero circa il 15% le coppie con problemi di mancata o ridotta fertilità, per il 40% attribuibili a oligospermia o azospermia maschile. Le cause potenziali della ridotta fertilità maschile sono da ricondurre per il 60% dei casi ad una origine genetica e per il restante 40% a malformazioni occlusive o che sfuggono alla classificazione".Una delle cause dell'oligospermia, tra quelle che attualmente non risultano classificabili - prosegue il ricercatore, componente del Endocannabinoid Research Group coordinato da Vincenzo Di Marzo dell'Icb-Cnr (http//bruksy.icmib.na.cnr.it/erg/) - potrebbe essere riconducibile al cattivo funzionamento del sistema endocannabinoide, con cui anche l'abuso di cannabis può interferire. "È stato infatti osservato che le cellule germinali presenti nel testicolo dell'animale possiedono recettori del sistema endocannabinoide e, in particolare, che il recettore dei cannabinoidi di tipo 2 (CB2) è coinvolto nel processo meiotico mediante il quale da ogni spermatocita primario (che nel maschio della specie umana presenta assetto cromosomico 46,XY) si ottengono 4 nuove cellule (spermatidi) 2 con assetto cromosomico 23,X e 2 con assetto 23,Y, che daranno origine durante la spermiogenesi agli spermatozoi maturi. Paralleli studi farmacologici dimostrano la possibilità di modulare in vivo il sistema endocannabinoide mediante agonisti ed antagonisti dei recettori CB2 ed inibitori della formazione o degradazione degli endocannabinoidi, aprendo così la strada ad approcci terapeutici in caso di funzionamento non corretto".Infine, conclude il ricercatore, "il ricorso alla fecondazione medicalmente assistita (Icsi-iniezione intro-citoplasmatica dello sperma nell'ovulo, eventualmente previa aspirazione degli spermatozoi residui dal testicolo-TESA), se ha risolto gran parte dei casi di infertilità maschile, ha determinato nella prole un aumento statisticamente significativo sia di trasmissione genetica dell'infertilità, sia una incidenza maggiore da 6 a 9 volte di anomalie cromosomiche, in particolare quelle definite 'da difetto di imprinting' (sovra-dosaggio genetico) come le sindromi di Beckwith-Wiedemann, Angelman, Prader-Willi", malattie genetiche rare caratterizzate da importanti alterazioni anatomo-funzionali e aumentato rischio di tumore.

Gli effetti a lungo termine delle amfetamine.

Fonte: Le Scienze
La sperimentazione sui topi ha permesso di riscontrare un deficit di memoria di lavoro anche a distanza di tempo, specie se la somministrazione avviene in età adolescenziale.
Il rapporto tra l’abuso di droghe e sostanze psicotrope ed effetti neuropsicologici è un tema studiato da lungo tempo. L’ultima ricerca in ordine di tempo, effettuata su topi di laboratorio, riguarda le amfetamine e ha mostrato come l’esposizione a tali sostanze in alte dosi determini, molto tempo dopo, un significativo deficit di memoria.A soffrirne, in particolare, è la cosiddetta memoria a breve termine o “di lavoro”, soprattutto se le amfetamine vengono somministrate agli animali nel corso dell’adolescenza, piuttosto che in età adulta.“L’effetto è evidente quando si confrontano i due gruppi di topi, quelli esposti alle sostanze in adolescenza e quelli esposti in età adulta, in alcuni compiti che richiedono l’uso della memoria di lavoro: a parità di dosi somministrate, i primi ottengono risultati decisamente peggiori”, ha spiegato Joshua Gulley, docente di psicologia dell’Università dell’Illinois a Urbana-Champaign, nel corso della presentazione dei risultati dello studio all’annuale congresso della Society for Neuroscience, tenutosi a Chicago. “Ciò ci porta a ipotizzare che la capacità di memoria di lavoro possa essere alterata in modo significativo dalla pre-esposizione alle amfetamine.”Nel corso della ricerca, gli studiosi hanno testato due tipi di somministrazione di amfetamine: intermittente, con una dose costante un giorno su due, e progressiva, con dosi aumentate per un periodo di quattro giorni seguite da una dose elevata ogni due ore al quinto giorno.I risultati mostrano così le conseguenze a lungo termine dell’abuso di amfetamine, che è possibile ipotizzare che si manifestino anche nell’uomo e che potrebbero essere rilevanti sia nei soggetti che le assumono a scopo terapeutico (come nel caso dei piccoli pazienti affetti da deficit di attenzione e iperattività. ADHD) sia - e soprattutto - nei giovani che ne fanno un uso incontrollato."L’adolescenza è un periodo in cui il cervello è in continuo sviluppo, e assumere amfetamine in un momento così critico potrebbe avere conseguenze negative a lungo termine”, ha concluso Gulley. “Il dato preoccupante è proprio che gli effetti si fanno sentire anche una volta interrotta l’assunzione della sostanza”. (fc)

Un errore nel Protocollo di Kyoto.

Fonte: Le Scienze
Trattando tutti gli usi della bioenergia come neutri rispetto alle emissioni, senza considerarne la fonte, si può creare un incentivo a un tipo di conversione dell'uso del territorio dagli esiti negativi.
E' correggibile, ma c'è: un errore nel metodo di valutazione delle emissione di CO2 prodotte utilizzando biomasse per generare energia potrebbe minare la possibilità di raggiungere l'obiettivo della riduzione dei gas serra stabilito da accordi internazionali e normative nazionali. L'errore è sottolineato in un articolo pubblicato su "Science" a firma Jerry Melillo, del Marine Biological Laboratory, T. Searchinger dell'Università di Princeton e da altri climatologi ed esperti di economia dell'energia. Il metodo di conteggio usato nel Protocollo di Kyoto, ma anche nella legislazione europea sui tetti alle emissioni e in quella americana del Clean Energy and Security Act, non considera infatti la CO2 rilasciata dagli impianti che utilizzano bioenergia, ma non ne tiene conto neppure ai fini del conteggio relativo alle emissioni imputabili a un cambiamento nella destinazione d'uso del terreno quando su di esso venga coltivata biomassa. Trattando, erroneamente, tutti gli utilizzi della bioenergia come se fossero neutri rispetto alle emissioni di carbonio senza considerare la fonte della biomassa, si potrebbe creare un forte incentivo economico a una conversione su larga scala dell'uso del territorio anche quando questa si risolve in un danno.L'esenzione delle emissioni di CO2 derivanti da bioenergia è qualcosa di scorretto se non se ne contempla il rapporto con gli eventuali cambiamenti di destinazione d'uso del territorio: "Le potenzialità della bioenergia di ridurre le emissioni di gas serra dipende in modo essenziale dalla fonte della biomassa e dai suoi effetti netti sull'uso del territorio", scrivono i ricercatori.La distruzione di una foresta per farne legna da ardere o per coltivare vegetali da destinare a un impiego energetico determina un notevole rilascio di CO2, mentre la conversione di un terreno marginale per coltivarvi vegetali a rapida crescita può portare a una riduzione netta del biossido di carbonio. In base all'attuale sistema di conteggio, entrambi gli scenari vengono considerati come se ci si trovasse di fronte a una riduzione del 100 per cento delle emissioni prodotte per generare energia. "Se le foreste o altre piante sono destinate alla bioenergia, il rilascio di carbonio che ne risulta deve essere conteggiato o come emissione da uso del terreno o come emissione energetica", dice Melillo. "Se non lo si fa, l'uso della bioenergia aggraverà il nostro problema con i gas serra invece di risolverlo." (gg)

Difendersi dall'aflatossina.

Fonte: Le Scienze
La scoperta di una proteina chiave nella produzione della tossina da parte delle muffe che colonizzano frutta secca e cereali può aprire la strada a metodi che ne inibiscano il funzionamento.
L'aflatossina, prodotta dalle muffe che si formano su frutta secca e cereali, può causare il tumore del fegato se questi alimenti vengono consumati in grandi quantità. Ora, per la prima volta, i ricercatori dell’Università della California a Irvine hanno scoperto la proteina che innesca la formazione della tossina, aprendo la strada alla ricerca di metodi che ne limitino i danni per la salute.Soprattutto nei Paesi in via di sviluppo, infatti, milioni di persone sono esposte ogni giorno a notevoli quantità di aflatossina, spesso con livelli centinaia di volte superiori a i quelli ritenuti sicuri dalle principali istituzioni sanitarie di molti paesi (anche se la contaminazione prima del raccolto o durante lo stoccaccio è considerata in qualche misura inevitabile).In particolare, in paesi come Cina, Vietnam e Sudafrica l'esposizione all’aflotossina si combina con quella all’epatite B, con un incremento della probabilità di insorgenza del tumore del fegato di circa 60 volte. Le statistiche epidemiologiche d'altra parte documentano che la percentuale delle morti complessive causate da tumori correlati alla tossina arriva fino al 10 per cento."L'impatto dell'aflotossina sulla salute pubblica ha proporzioni che molti non immaginano", ha commentato Sheryl Tsai, coautore dell'articolo apparso sulla rivista “Nature”.Secondo le attuali conoscenze, la tossina altera il gene p53, noto per la sua azione protettiva sull’organismo. In questo modo, l’aflatossina compromette la funzionalità del sistema immunitario, interferisce con il metabolismo e può causare uno stato di grave malnutrizione oltre, come detto, a contribuire all’insorgenza di neoplasie.In quest’ultima ricerca, Tsai, insieme con i colleghi Tyler Korman e Oliver Kamari-Bidkorpeh, ha individuato una proteina, denominata PT, che riveste un ruolo critico nel processo di produzione dell’aflatossina da parte delle muffe.La sua scoperta, oltre a consentire una più profonda comprensione dei meccanismi di carcinogenesi, apre la strada a una nuova strategia per combattere gli effetti delle muffe, inibendo la funzionalità della proteina PT invece che attaccando l’intera muffa come si fa ora. (fc)

Apre il portale “Scuolabook” dove scaricare testi scolastici in formato PDF.

Fonte: Galileo
Apre il portale “Scuolabook” dove scaricare testi scolastici in pdf, che costano fino al 40 per cento in meno di quelli tradizionali.
Lo zaino dei ragazzi delle scuole secondarie di primo e secondo grado potrebbe presto allegerirsi. Da qualche giorno, è attivo “Scuolabook” il portale realizzato dalla Hoplo, dove è possibile scaricare alcuni testi scolastici delle case editrici D'Anna, Loescher e Zanichelli in formato pdf. Si possono così acquistare i volumi elettronici con dei semplici click, a un costo inferiore del 40 per cento rispetto a quelli stampati su carta.
Intuitiva la navigazione del sito e il meccanismo di acquisto dei testi: si sceglie la materia di studio, la casa editrice oppure l'indirizzo scolastico per trovare il libro cercato. Basta poi registrarsi e creare un account per acquistarlo con una carta di credito, anche prepagata. Successivamente si riceve via mail il link per scaricare i testi. Per leggere i file scaricati serve il programma gratuito
Adobe Digital Editions, messo a disposizione dal portale stesso. La stampa però, è possibile solo per parte dei testi (sempre coperti da copyright), che sono protetti e non possono essere duplicati.
Il progetto degli e-book scolastici è nato in seguito alla legge 133/2008 che prevede, entro il 2011, l'adozione in tutte le scuole italiane di libri scaricati da internet da affiancare a quelli cartacei. La domanda che resta in sospeso è: come faranno i bambini o i ragazzi a consultare i libri a scuola finché le risorse informatiche dei vari istituti non saranno adeguate? (f.c.)

L’elicottero con una sola pala è la nuova frontiera dei voli di ricognizione.

Fonte: Galileo

L’elicottero con una sola pala è la nuova frontiera dei voli di ricognizione. Un prototipo ispirato al volo dei semi dell’acero è stato realizzato da un gruppo giovani ingegneri della Clark School of Engineering dell'Università del Maryland.
In passato diversi ingegneri hanno tentato di riprodurre il movimento a spirale dei semi alati, ma i velivoli realizzati non potevano essere controllati, rimanendo in balia del vento. I ragazzi del Maryland sono riusciti a risolvere il problema aggiungendo una parte meccanica a forma di virgola che, invece di prevenire la rotazione dell'apparecchio come avviene nei normali elicotteri, la mantiene costante, permettendo così al congegno di librarsi in aria.
Il “monocottero” è stato presentato al forum annuale dell'America Helicopter Society ed è ora in attesa di ricevere due brevetti. Potrà essere impiegato in ambito militare, nel sostegno al lavoro dei vigili del fuoco e nella ricerca di persone disperse in mare o in luoghi difficilmente raggiungibili con gli attuali mezzi.
Francesca Costantino

giovedì 22 ottobre 2009

Test misura l'elasticità del cervello post-ictus (È in grado di predire quale sarà il recupero di un paziente)

Fonte: ANSA

ROMA - Un'equipe guidata da Vincenzo Di Lazzaro del Dipartimento di Neuroscienze dell'Università Cattolica-Policlinico Gemelli di Roma ha messo a punto un test che misura quanto è 'elastico' il cervello. Basato sulle risposte neurali a stimoli elettromagnetici, è stato pubblicato sulla rivista Cerebral Cortex ed è in grado di predire da subito quale sarà il recupero di un paziente appena reduce da un ictus.
Il test, presentato a Torino nel corso del IX Congresso nazionale della Società italiana per lo studio dello Stroke (SISS), consiste in un esame neurofisiologico in grado di valutare la plasticità del cervello, ovvero quanto è 'malleabile' e modificabile in risposta a stimoli, una caratteristica cruciale per memoria, apprendimento e per la possibilità di recupero dopo una lesione cerebrale. Indolore e non invasivo, il test si esegue valutando le modificazioni di eccitabilità della corteccia cerebrale motoria indotte da una stimolazione magnetica ripetitiva ad alta frequenza. In questo modo, a pochi giorni dall'ictus, si potrà già sapere la prognosi del paziente e personalizzare il suo percorso riabilitativo.

La combustione degli idrocarburi potrebbe essere più economica e meno inquinante, grazie a un nuovo tipo di catalizzatori.

Fonte: Galileo
Un nuovo sistema per realizzare i catalizzatori potrebbe rendere la combustione del metano più efficiente, meno costosa e a minor impatto ambientale. A metterlo a punto sono stati i ricercatori della Sissa (Scuola Internazionale Superiore di Studi Avanzati) di Trieste, dell’Università di Udine e del Centro di simulazione numerica Democritos, in collaborazione con l’Università della Catalogna di Barcellona. I catalizzatori sono sostanze che facilitano le reazioni chimiche, aumentandone la velocità. Attualmente, quelli usati nel processo di combustione del metano sono formati da particelle di un materiale ossido, resistente al calore, circondate da uno strato di un metallo prezioso, come il platino e il rodio (che rappresenta la parte cosiddetta “attiva”). Questi catalizzatori funzionano bene a bassa temperatura, ma diventano instabili e si disattivano se aumentano i gradi, perdendo in efficienza. Per risolvere il problema, i ricercatori della Sissa hanno rivisto la struttura atomica stessa di questi composti: invece che creare un sistema “a matrioska”, hanno mescolato il metallo prezioso all'ossido, ottenendo una soluzione solida che, a parità di metallo inserito, è più reattiva di quella “classica”.“Abbiamo creato una nanostruttura innovativa ordinata che rende il catalizzatore più stabile e resistente alle alte temperature, e quindi più efficiente”, ha spiegato Stefano Fabris, ricercatore dell'Istituto nazionale per la fisica della materia e della Sissa: “In pratica funziona come una spugna che partecipa attivamente alla reazione, immagazzinando o rilasciando ossigeno reattivo che può essere coinvolto nei processi di trasformazione”. Secondo lo studio, pubblicato tra gli “hot paper” dell'Angewandte Chemie International Edition, comprendendo come inserire esattamente gli atomi di metallo nell'ossido, il catalizzatore può migliorare ulteriormente in efficienza e aumentare il periodo di attività. (s.l.)Riferimento: 10.1002/anie.200903581

Le armi a scarica elettrica possono provocare danni cardiaci minimi: Taser ha ammesso i rischi per il cuore (con Video).

Le armi a scarica elettrica possono provocare danni cardiaci minimi. Taser, la casa di produzione di questo genere di pistole, ha ammesso i rischi per il cuore, provocati dagli impulsi elettrici e ha suggerito ai poliziotti di non puntare al torace, ma di prendere di mira la parte bassa dell’addome. In diversi casi si sono verificati episodi di vittime ridotte, prima in stato confusionale, e poi uccise, molte di loro erano anche disarmate. Le pistole a scarica elettrica, considerate un’alternativa innocua alle tradizionali armi a fuoco, sono utilizzate da 14.200 forze di polizia nel mondo, di queste almeno 12mila solo negli Stati Uniti, ma anche in Francia e in Gran Bretagna. Secondo Amnesty International tra il 2001 e il 2008, 351 persone, colpite da questo genere di armi, hanno perso la vita. Nelle raccomandazioni, Taser sottolinea l’importanza della distanza dal bersaglio come fattore determinante, per evitare che il colpo provochi al cuore un danno irreversibile.
Il termine taser è un marchio depositato dalla TASER International, Inc. ed è l'acronimo di Thomas A. Swift's Electronic Rifle, dove Tom Swift è il nome del personaggio di un fumetto.
Questo termine è usato per riferirsi a dei
dispositivi classificati come armi da difesa "meno che letali" che fanno uso dell'elettricità per far contrarre i muscoli del soggetto colpito.
Tali dispositivi sono stati ideati nel
1969 da Jack Cover ma i modelli che permettono l'immobilizzazione totale di una persona sono stati progettati a partire dal 1998.
Nel novembre
2007, in conseguenza della morte di una persona in Canada (la terza nel lasso di tempo di un mese) si sono accentuate le polemiche sull'uso di questo tipo di arma, la cui adozione è stata fortemente criticata dall'ONU e della quale Amnesty International ha chiesto il ritiro.
Quando viene azionato il taser proietta due piccoli dardi con traiettorie non parallele in modo da aumentare la distanza tra i due, perché l'efficacia aumenta quanto più i dardi sono distanti tra loro. Questi dardi sono collegati tramite dei fili elettrici al resto del dispositivo il quale produce una scarica ad alta tensione e basso amperaggio, che viene rilasciata in brevissimi impulsi. Entrambi i dardi devono colpire il bersaglio ma non è necessario che superino i vestiti ed inoltre è possibile toccare il soggetto colpito senza subire l'effetto del taser perché l'elettricità passa solo per il percorso più breve che unisce i due dardi.
Pur esistendo modelli adatti alla difesa personale il taser trova il suo più largo impiego nelle forze di polizia, specialmente negli USA.
Su internet sono disponibili video che mostrano il taser in varie situazioni: testato su volontari i quali subito dopo aver ricevuto la scarica che li ha immobilizzati si rialzano come se nulla fosse successo, usato contro soggetti aggressivi che in seguito alle scariche diventano collaborativi ed usato anche per immobilizzare aspiranti
suicidi. Essendo, inoltre, armi non letali possono essere usati anche in situazioni di pericolo non estremo e sono quindi teoricamente adatti sia in caso di manifestazioni violente che pacifiche dove l'uccisione di persone avrebbe un esito moralmente e politicamente negativo.
Esistono anche modelli da utilizzare su
animali di grossa taglia.
Amnesty International denuncia che 334 sono le persone morte negli Usa, dal 2001 all'agosto 2008, dopo essere state colpite dalle taser. Medici e magistrati sono giunti alla conclusione che nel 50 per cento dei casi le taser abbiano causato direttamente o contribuito a causare la morte. In almeno sei casi mortali, le taser sono state utilizzate su persone che avevano problemi di salute in fase acuta, tra cui un medico che aveva avuto un incidente con la propria automobile, andata distrutta, nel corso di una crisi epilettica. È morto dopo essere stato ripetutamente colpito da una taser sul ciglio della strada dove, stordito e confuso, non riusciva a obbedire ai comandi di un agente.
TASER International afferma che i taser non hanno mai causato decessi. I medici legali dichiarano che i taser sono stati una delle cause che hanno contribuito alla morte di 10 persone.
Uno studio finanziato dal
National Institute of Justice e svolto dalla Wake Forest University School of Medicine prendente in esame 1000 casi di individui colpiti da un taser ha riportato che in nessun caso il taser fu causa di morte. Secondo lo studio il 99.7% dei colpiti non riportò danni o subì danni leggeri (lividi, sbucciature) mentre il rimanente 0.3% dovette ricevere cure ospedaliere. I ferimenti erano causati dalla caduta dei soggetti dopo essere stati colpiti dal taser.
Uno studio commissionato dalla Canadian Broadcasting Corporation ha determinato che il 10 per cento delle 41 taser esaminate sprigionava più corrente di quella dichiarata dal produttore, mettendo quindi in luce la necessità di altre verifiche e test indipendenti su queste armi.
Il 14 ottobre 2007 al terminal di Vancouver in Canada, un uomo polacco di 40 anni è deceduto per arresto cardiaco a causa dell'uso del taser da parte della polizia canadese.
Nel novembre 2007 l'ONU ha equiparato l'uso di Taser ad una forma di tortura, e ne ha sconsigliato l'assunzione alle forze dell'ordine portoghesi.
Per la legge italiana il taser è considerato arma propria ma non arma da fuoco e per importarlo serve la licenza di importazione. Possono essere venduti dagli armieri a persone con porto d'armi ma non possono essere portati per nessun motivo.

Tecnologia e sviluppo di una mano bionica (artificiale).


(VIDEO)
La protesi in questione (mano robotica) sfrutta il meccanismo della sottoattuazione per implementare movimenti e prese antropomorfi.Essa dispone in totale di 16 gradi di libertà (GDL),così ripartiti: tre GDL per ogni dito più un GDL per portare il pollice in opposizione a tutte le altre dita (adduzione-abduzione).I gradi di mobilità (GDM) sono invece 6. La flessione di ogni dito sottoazionato (azione agonista) è ottenuto tramite un cavo comandato da un motore in continua. L'azione antagonista viene implementata da molle torsionali integrate in ogni giunto del dito. Analogamente al modello di mano umana i motori (come i muscoli) per i movimenti di flessione delle 5 dita sono esterni alla mano e posizionati nell'avambraccio.Inoltre il motore (muscolo) per il posizionamento del pollice e relativo movimento verso le altre 4 dita, è integrato all'interno del palmo della mano.Questa "mano robotica" è caratterizzata da un sistema sensoriale artificiale mirato a fornire informazioni propriocettive ed esterocettive seguendo quanto più possibile il modello umano. Le informazioni del sistema sensoriale di una mano artificiale cibernetica vengono utilizzate essenzialmente per due ragioni: 1) Per fornire un feedback in afferenza al paziente affinché percepisca la protesi nel modo più naturale possibile. 2) Per chiudere il loop di controllo a basso livello della mano bionica. I sensori di tipo propriocettivo sono stati progettati seguendo un approccio bio-ispirato. Essi forniscono le posizioni dei giunti della mano e le forze esercitate dagli attuatori, in analogia,rispettivamente,ai recettori articolari e agli organi tendinei del Golgi della mano umana. Per questo vengono integrati sensori ad effetto Hall in ogni giunto ed anche sensori capaci di rilevare la tensione dei cavi di ogni dito. Altri tipi di sensori sono stati opportunamente progettati ed integrati per dare informazioni riguardo all'interazione che la mano artificiale ha con l'ambiente (sensori esterocettivi o tattili).
Nel corso degli scorsi anni sono state realizzate differenti tipologie di interfacce neurali per il Sistema Nervoso Periferico (Navarro et al.,2005 e Micera et al.,2006) utilizzate sia per studiarne le proprietà, da un punto di vista esclusivamente neurofisiologico, che per costruire dispositivi neuroprotesici (es.,per pazienti che hanno subito una lesione al midollo spinale) o Sistemi Bionici Ibridi (es.,protesi cibernetiche di mano,come in questo caso).Queste interfacce dovrebbero creare un contatto stabile e selettivo con il Sistema Nervoso Periferico, permettendo la registrazione e la stimolazione elettrica dei fascicoli nervosi e ripristinando così le vie neurali efferenti ed afferenti (es.,registrando i segnali da alcune fibre efferenti è possibile estrarre informazioni cinematiche e cinetiche per il controllo di protesi artificiali mentre stimolando elettricamente alcune fibre afferenti all'interno del nervo è possibile ridare ad un amputato un feedback sensoriale - informazioni propiocettive e tattili).Risulta quindi molto importante la scelta del tipo di interfaccia da utilizzare che deve essere fatta sulla base della selettività e della invasività,ovvero della capacità di avere accesso a fascicoli all'interno del nervo periferico e sulla tipologia del contatto che si vuole instaurare con il nervo periferico (es.,l'elettrodo può essere posizionato dentro o intorno al nervo periferico). Per ulteriori informazioni, si veda:
Segnalo inoltre un interessante articolo apparso di recente sul Corriere della Sera, a proposito di mani artificiali (bioniche) sensibili al tatto: