venerdì 23 agosto 2013

Progetto "Eyeshots": un mezzo per dare ai robot un senso della vista simile a quello umano.

Fonte: Cordis
--------------------
Riprodurre il comportamento umano nei robot è stato per lungo tempo un obbiettivo fondamentale degli scienziati che lavorano nel campo delle tecnologie dell'informazione e delle comunicazioni (TIC).

Tuttavia, un ostacolo rilevante alla realizzazione di questo obbiettivo è stato il controllo dell'interazione tra movimento e visione. Infatti, ottenere un'accurata percezione spaziale e una coordinazione visivo - motoria senza problemi si è dimostrato difficile.

Affrontare questo problema era l'obbiettivo principale del progetto EYESHOTS ("Heterogeneous 3-D perception across visual fragments"), finanziato dall'UE. Mediante la simulazione dei meccanismi di apprendimento umani, il progetto è riuscito a costruire un prototipo di robot capace di essere consapevole di ciò che lo circonda e di usare la sua memoria per raggiungere facilmente degli oggetti.

Le implicazioni di questa svolta non si limitano a possibili miglioramenti nella meccanica robotica, ma aiuteranno anche a ottenere migliori diagnosi e tecniche di riabilitazione per malattie degenerative come il morbo di Parkinson.

Il progetto è iniziato con l'esame della biologia umana e animale. Un team multidisciplinare comprendente esperti in robotica, neuroscienze, ingegneria e psicologia ha costruito modelli informatici basati sulla coordinazione neurale nelle scimmie (molto simile al modo in cui funziona la coordinazione umana).

La chiave è stata riconoscere il fatto che i nostri occhi si muovono così velocemente che le immagini prodotte sono di fatto mosse e spetta quindi al cervello mettere insieme questi frammenti confusi e presentare un'immagine più coerente dell'ambiente circostante.

Usando queste informazioni neurali, il progetto ha costruito un modello informatico unico che mette insieme le immagini visive con i movimenti sia degli occhi che delle braccia, in modo simile a ciò che accade nella corteccia cerebrale del cervello umano.

In effetti, il progetto si basa sulla premessa che si può riuscire ad essere pienamente consapevoli dello spazio visivo che ci circonda soltanto mediante la sua esplorazione attiva. Questo, dopo tutto, è il modo in cui gli esseri umani imparano a comprendere il mondo fisico; guardandosi attorno, allungando le braccia e afferrano oggetti.

Nella vita di ogni giorno, l'esperienza dello spazio 3D attorno a noi è mediata attraverso i movimenti di occhi, testa e braccia, che ci permettono di osservare, raggiungere e afferrare oggetti nell'ambiente. Da questa prospettiva, il sistema motorio di un robot umanoide dovrebbe essere una parte integrante del suo apparato percettivo.

Il risultato finale di questo approccio è un robot umanoide che può muovere i suoi occhi e concentrarsi su un singolo punto, e persino imparare dall'esperienza e usare la sua memoria per raggiungere degli oggetti senza doverli prima vedere. Il sistema robotico è composto da un torso con braccia articolate e una testa robot con occhi che si muovono.

Mediante l'impiego delle neuroscienze, il progetto EYESHOTS, conclusosi nel 2011, è riuscito a individuare un mezzo per dare ai robot un senso della vista simile alla visione umana. Questo rappresenta una tappa fondamentale nella creazione di un robot umanoide che può interagire con il suo ambiente e portare a termine dei compiti senza supervisione.

Il progetto, che è stato coordinato dall'Università degli Studi di Genova in Italia, è stato reso possibile da un finanziamento dell'UE di 2,4 milioni di euro erogato nell'ambito del tema "Tecnologie dell'informazione e della comunicazione" (TIC) del Settimo programma quadro (7° PQ) dell'UE.
Per maggiori informazioni, visitare:

EYESHOTS
http://www.eyeshots.it/

Scheda informativa del progetto
http://cordis.europa.eu/projects/rcn/85563_it.html
ARTICOLI CORRELATI: 32339, 32775

giovedì 22 agosto 2013

Una nuova tecnologia enzimatica di microarray (EMT), come potente strumento per studiare gli enzimi.

Fonte: Cordis
-------------------
La decifrazione del genoma umano nel 2000 è una pietra miliare nella storia della scienza e un importantissimo passo avanti verso una comprensione più completa della vita umana.

Come molti progressi scientifici, però, ciò che ha fatto in realtà è preparare il terreno per un compito ben più difficile: capire le modalità intricate e diverse secondo le quali agiscono le proteine, che sono i prodotti dei geni.

Capire la funzione delle proteine su scala genomica è oggi uno degli obiettivi principali della biologia. Il progetto ENZYME MICROARRAYS ("An integrated technology for the deconvolution of complex biochemical systems, drug discovery and diagnostics"), finanziato dall'UE, aveva lo scopo di sviluppare nuove tecniche per capire meglio il funzionamento delle proteine.

Le proteine sono grandi molecole biologiche che svolgono una vasta gamma di funzioni all'interno degli organismi viventi, come catalizzare le reazioni metaboliche, replicare il DNA, rispondere agli stimoli e trasportare le molecole da un posto all'altro.

Finora, la mancanza di tecnologie appropriate in grado di gestire la complessità di tutto l'insieme di proteine espresse da un genoma, il cosiddetto "proteoma", ha rappresentato un grosso ostacolo.

I ricercatori di ENZYME MICROARRAYS presso il Politecnico di Monaco si sono proposti di sviluppare una nuova tecnologia enzimatica di microarray (EMT), come potente strumento per studiare una classe di proteine, gli enzimi. Gli enzimi sono grandi molecole biologiche responsabili di catalizzare miriadi di attività chimiche che sono a sostegno della vita.

La nuova EMT del progetto si basa sullo sviluppo di sonde chimiche che possono essere usate per monitorare l'attività di una miriade di microarray di enzimi - un gran numero di enzimi organizzati in classi e attaccati a una superficie solida.

I ricercatori hanno usato questa tecnica, in associazione a librerie chimiche progettate, per svolgere una valutazione dettagliata di massa dell'attività di importanti famiglie di enzimi.

Sono state fatte correlazioni su larga scala per testare nuove ipotesi sul coinvolgimento degli enzimi in reti che governano molti importanti processi biochimici. Con questo successo, il progetto ENZYME MICROARRAYS ha fatto un altro passo avanti verso una comprensione più essenziale dei meccanismi della vita.
L'UE ha stanziato 1,9 milioni di euro di finanziamenti per il progetto per sostenere le reti di ricerca e la formazione e mobilità dei ricercatori in Europa e all'estero.
Per maggiori informazioni, visitare:

Scheda informativa del progetto
http://cordis.europa.eu/projects/rcn/79163_it.html

Politecnico di Monaco di Baviera
http://www.tu-muenchen.de/
ARTICOLI CORRELATI: 34527, 35255, 35474
Categoria: Progetti
Fonte: ENZYME MICROARRAYS
Documenti di Riferimento: Sulla base di informazioni diffuse da ENZYME MICROARRAYS
Codici di Classificazione per Materia: Biotecnologia; Medicina, sanità
RCN: 35988

lunedì 19 agosto 2013

Realizzati i vetri che diventano opachi a comando.

(immagine: Anna Llordés, Lawrence Berkeley National Lab.)
Fonte: ANSA Scienze
----------------------------
Dopo anni di ricerche, funzionano le prime finestre intelligenti: grazie alle nanotecnologie i loro vetri sono in grado di bloccare selettivamente luce e calore migliorando sensibilmente l'efficienza energetica domestica. Il procedimento, messo a punto da un gruppo internazionale coordinato dal laboratorio californiano Lawrence Berkeley, è pubblicato sulla rivista Nature e permette di realizzare vetri low-cost multifunzionali, in grado di modificare a comando la loro opacità.

Nonostante i grandi progressi fatti nel migliorare i consumi energetici domestici, i vetri delle finestre rappresentano ancora un 'punto dolente', uno dei punti di maggiore dispersione termica e la 'porta' di ingresso del calore.
Per contrastare questo problema i ricercatori statunitensi hanno messo a punto un metodo che potrebbe essere facilmente integrato nei processi di produzione industriale per opacizzare le finestre e limitare l'ingresso del calore dei raggi solari.

Si tratta di vetri al cui interno sono presenti due tipi di nanocristalli che possono essere attivati a comando, attraverso un impulso elettrico. I cristalli, che a 'riposo' sono trasparenti, sono posti su due differenti strati.
L'attivazione del primo strato permette di bloccare i raggi infrarossi (i responsabili del calore), il secondo invece permette di bloccare anche una buona parte di luce visibile rendendo così il vetro opaco. Dopo anni di ricerca in questo campo, le soluzioni ingegneristiche proposte da questo gruppo di ricercatori sembrerebbero finalmente poter aprire la strada commerciale ai vetri intelligenti per la limitazione dei consumi energetici.

venerdì 16 agosto 2013

MPPA256, il primo supercomputer al mondo su un microchip.

Fonte: Cordis
--------------------
Dalla simulazione dei farmaci alla previsione degli tsunami e alla localizzazione dei mezzi in mare, la capacità di calcolo a elevate prestazioni ha rivoluzionato il modo in cui operano aziende e governi. In modo simile, i sistemi informatici embedded hanno rivoluzionato il modo in cui osserviamo e controlliamo il mondo fisico: GPS, telefoni cellulari, sistemi di controllo fly-by-wire, automobili senza guidatore e robotica.

Ma i giorni dei rapidi miglioramenti delle prestazioni stanno per finire, l'ostacolo è rappresentato dall'efficienza energetica. Preparandosi ad affrontare questa sfida in modo diretto, l'Europa ha riunito oltre 1 200 ricercatori dei sistemi informatici in un'unica enorme rete.

La rete di eccellenza HiPEAC ("High Performance and Embedded Architecture and Compilation") è stata formata inizialmente nel 2004. Essa ha avuto un tale successo nel rafforzare la capacità di calcolo in Europa che ha visto rinnovare due volte il suo mandato.

HiPEAC venne creata per organizzare la comunità dei sistemi informatici d'Europa. Oggi il principale obbiettivo di ricerca è quello di ottenere tecnologie informatiche efficienti dal punto di vista energetico e a bassi costi nell'intera gamma di dispositivi e sistemi, dai sistemi mobili ed embedded ai centri dati e ai supercomputer. Una maggiore collaborazione tra i diversi gruppi di ricerca che lavorano in questo settore non soltanto ridurrà il rischio di ricerche doppione, ma incoraggerà anche la condivisione della conoscenza.

HiPEAC stimola l'innovazione a tutti i livelli della catasta del sistema informatico, incoraggiando l'ottimizzazione globale e la creazione di prodotti innovativi. Padroneggiare tutti gli aspetti dei sistemi informatici è fondamentale per un'innovazione efficiente e per la creazione di valore di mercato.

HiPEAC ha recentemente pubblicato un piano di azione per i sistemi informatici del futuro, identificando nell'informatica mobile, embedded e dei centri dati le aree strategiche chiave, e nel consumo energetico, nella complessità del sistema e nell'affidabilità le principali sfide.

"Il mondo informatico attualmente deve affrontare delle limitazioni tecnologiche in quasi tutte le aree", spiega il coordinatore di HiPEAC, Koen De Bosschere dell'Università di Gand in Belgio. "Non possiamo più semplicemente aumentare la velocità fisica o ignorare l'energia prodotta dai sistemi informatici. Le limitazioni tecnologiche stanno impedendo gli aumenti delle prestazioni apparentemente semplici del passato".

Nel frattempo ai sistemi informatici vengono assegnati dei compiti persino più grandi, impegnativi e vitali.

La ricerca supportata dalla rete ha già prodotto dei risultati entusiasmanti. La conferenza 2013 HiPEAC ha visto la dimostrazione di MPPA256, il primo supercomputer al mondo su un microchip. Il dispositivo comprende 256 nuclei di processori informatici (le unità che leggono ed eseguono le istruzioni), e si prevede che renda possibile una nuova classe di applicazioni embedded e industriali per l'elaborazione di immagini e di segnali, controllo, comunicazioni e sicurezza dati.

HiPEAC rafforza la comunità di ricerca sui sistemi informatici in Europa mediante formazione, tirocini, sovvenzioni, anni sabbatici, trasferimento tecnologico e creazione di reti.

La conferenza annuale è diventata il più importante evento della rete, avendo triplicato le presenze tra il 2011 e il 2012 ed essendo diventata la seconda più grande conferenza sui sistemi informatici in Europa. Anche alla scuola estiva HiPEAC viene riconosciuto un impatto significativo. Essa ogni anno riunisce quasi 200 studenti e ricercatori provenienti da tutto il mondo.

L'attuale HiPEAC ha ricevuto finanziamenti dall'UE per 3,8 milioni di euro per il periodo 2012-2015. Le due precedenti edizioni avevano ricevuto in tutto 8,7 milioni di euro.

Per maggiori informazioni, visitare:
HIPEAC
http://www.hipeac.net/

Scheda informativa del progetto
http://cordis.europa.eu/projects/rcn/100750_it.html

ARTICOLI CORRELATI: 34443, 35260

Categoria: Progetti
Fonte: HIPEAC
Documenti di Riferimento: Sulla base di informazioni diffuse dal progetto HiPEAC
Codici di Classificazione per Materia: Elaborazione dati, Sistemi di informazione; Tecnologie di rete

RCN: 35970

L’informazione quantistica ottica digitale discreta può ora essere trasmessa continuamente ...spingendo un bottone.

Fonte: Gaianews.it
--------------------------
Mediante l’entanglement quantistico i ricercatori di Tokyo e Magonza sono riusciti a teletrasportare qubit fotonici con estrema affidabilità. Un passo avanti decisivo è stato quindi realizzato circa 15 anni dopo i primi esperimenti nel campo del teletrasporto ottico.
Il successo dell’esperimento condotto a Tokyo è attribuibile all’uso di una tecnica ibrida in cui sono stati combinati due approcci concettualmente diversi e finora incompatibili. “L’informazione quantistica ottica digitale discreta può ora essere trasmessa continuamente – spingendo un bottone, se si vuole,” ha spiegato il professor Peter van Loock dell’Università Johannes Gutenberg di Magonza (JGU). Come fisico teorico, van Loock ha consigliato i fisici sperimentali del gruppo di ricerca guidato dal professor Akira Furusawa, dell’Università di Tokyo su come si sarebbe potuto svolgere in modo più efficiente l’esperimento di teletrasporto per verificare in ultima analisi, il successo del teletrasporto quantistico. I loro risultati sono stati pubblicati sulla rivista Nature.
Il teletrasporto quantistico comporta il trasferimento di arbitrari stati quantistici da un mittente, soprannominato Alice, ad un ricevitore spazialmente distante, di nome Bob. Ciò richiede che Alice e Bob condividano inizialmente uno stato quantistico entangled attraverso lo spazio in questione, ad esempio, sotto forma di fotoni. Il teletrasporto quantistico è di fondamentale importanza per l’elaborazione dell’informazione quantistica (quantum computer) e la comunicazione quantistica. I fotoni sono vettori di informazioni ideali per la comunicazione quantistica in quanto possono essere utilizzati per trasmettere segnali alla velocità della luce. Un fotone può rappresentare un bit quantistico o qubit analogo a una cifra binaria (bit) . Questi fotoni sono noti come bit quantistici “volanti”.
I primi tentativi di teletrasportare singoli fotoni o particelle di luce sono stati effettuati dal fisico austriaco Anton Zeilinger. Vari altri esperimenti sono stati eseguiti nel frattempo. Tuttavia, il teletrasporto di bit quantistici fotonici con metodi convenzionali ha dimostrato di avere i suoi limiti a causa di carenze sperimentali e di difficoltà con i principi fondamentali.
Ciò che rende l’esperimento di Tokyo diverso è l’uso di una tecnica ibrida. Grazie ad essa è stato raggiunto un teletrasporto quantistico di qubits fotonici completamente deterministico e altamente affidabile. La precisione del trasferimento andava dal 79 all’82 per cento per i quattro diversi qubit. Inoltre, i qubit sono stati teletrasportati molto più efficiente rispetto a esperimenti precedenti, anche ad un basso grado di entanglement.
Il concetto di entanglement è stato formulato da Erwin Schrödinger e coinvolge una situazione in cui due sistemi quantistici, come ad esempio due particelle di luce, ad esempio, sono in uno stato comune, in modo che il loro comportamento è reciprocamente dipendente in misura maggiore di quanto non sia normalmente possibile.
Nell’esperimento di Tokyo, l’entanglement continuo è stata realizzata mediante l’aggrovigliamento di molti fotoni con molti altri fotoni.
Precedenti esperimenti avevano un entangled fra singoli fotoni, una soluzione meno efficiente. “L’entanglement dei fotoni ha funzionato molto bene per l’esperimento Tdi okyo – praticamente con la semplice pressione di un pulsante, il laser è stato attivato”, ha detto van Loock, Professore di Teoria di ottica quantistica e informazione quantistica all’università di Magonza.

Questo entanglement continuo è stato realizzato con l’aiuto della cosiddetta ‘squeezed light’, che assume la forma di un’ellisse nello spazio delle fasi del campo di luce. Una volta che l’entanglement è stato raggiunto, un terzo campo di luce può essere connesso al trasmettitore. Da lì, in linea di principio, qualsiasi stato e qualsiasi numero di stati possono essere trasmessi al ricevitore. “Nel nostro esperimento, c’erano precisamente quattro stati sufficientemente rappresentativi che sono stati trasferiti da Alice a Bob usando l’entanglement. Grazie a l’ entanglement continuo, è stato possibile trasmettere i qubit fotonici in modo deterministico a Bob”, ha aggiunto van Loock.
I precedenti tentativi di realizzare il teletrasporto ottico sono state eseguiti in modo diverso e, prima d’ora, i concetti utilizzati si sono rivelati incompatibili. Ora, grazie alla tecnologia ibrida, “i due mondi separati, il discreto e il continuo, stanno cominciando a convergere”, ha concluso van Loock.

lunedì 12 agosto 2013

Nuova tecnica archeologica ricostruisce le ultime ore di un defunto.

Resti del bambino di 10-13 anni esaminati con una nuova tecnica nel cimitero di Lindegaarde a Ribe, Danimarca (fonte: Sydvestjyske Museer)
Fonte: Gaianews.it
------------------------
Potrebbe sembrare la trama di una fiction poliziesca, tanto in voga oggi. Invece, ancora una volta, scienza e tecnologia ci stupiscono con possibilità impensabili fino a qualche anno fa.
Una nuova tecnica di indagine ha infatti consentito la ricostruzione dell’ultimo giorno di vita di un bambino, d’età compresa tra i 10 e i 13 anni, rinvenuto in una sepoltura medievale risalente a circa 800 anni fa nella città di Ribe, in Danimarca.
Il giorno prima di morire, il bambino fu sottoposto ad una potente dose di mercurio che avrebbe dovuto guarirlo da una grave malattia e che invece lo uccise, tra dolorose sofferenze.
Questo è quanto è stato ricostruito da Kaare Lund Rasmussen, della University of Southern Denmark, che insieme ad alcuni colleghi ha elaborato una nuova metodologia che può rivelare molti dettagli sugli ultimi istanti di vita di una persona.
Il mercurio desta particolare interesse fra gli archeologi, dato che molte culture ne hanno fatto un uso curativo in campo medico, dall’antica Grecia, all’Italia, ai Paesi scandinavi.
“Non so quali malattie avesse contratto il bambino, ma posso per certo affermare che gli è stata somministrata una dose letale di mercurio”, afferma Rasmussen.
La visione dettagliata della vita del bambino non è scaturita dalle analisi delle ossa – come finora  è sempre stato fatto con gli esami autoptici o in paleopatologia – ma dall’esame chimico del terreno dove era stato sepolto.
“Durante la decomposizione dei corpi” – spiega Rasmussen – “molti composti organici e inorganici vengono rilasciati nel terreno e se siamo in grado di localizzare un elemento che non si trova normalmente nel terreno, ma solo nelle vicinanze del corpo, possiamo ottenere informazioni sulle ultime ore di vita del defunto”.
“Il mercurio è un elemento che vale la pena di cercare”, aggiunge lo studioso.“E’ un elemento estremamente tossico e molti sono morti non tanto per la malattia, quanto per l’avvelenamento da mercurio utilizzato per curare la malattia”.
Il trattamento con il mercurio era una pratica curativa molto diffusa, ancora nel 1900.  Ad esempio, con il mercurio fu curata anche la scrittrice Karen Blixen”, cita Rasmussen. 
“In una sepoltura, laddove un rene si dissolve completamente, i composti del tessuto rimangono tuttavia nel suolo, se non vengono asportati dalle acque percolanti. Se al momento della morte ci fosse stato mercurio nel rene, questo si sarebbe trasformato rapidamente in solfuro di mercurio, indissolubile in acqua”.
La concentrazione di mercurio viene eliminata molto velocemente dai polmoni; poche ore, massimo un paio di giorni dopo la morte.
  “Quando abbiamo trovato alte concentrazioni di mercurio nel terreno che per tanto tempo è rimasto a contatto con il polmone del bambino, abbiamo concluso che il bambino era stato esposto ad inalazioni di mercurio durante le ultime 48 ore di vita”, spiega Rasmussen. 
E’ possibile comunque anche testare il contenuto in mercurio delle ossa, come è stato fatto per anni.
“Ma ci sono limitazioni, per le ossa. Mentre il terreno dà informazioni sulle ultime ore di vita, le ossa testimoniano una eventuale esposizione al mercurio per un periodo anteriore, da 3 a 10 anni prima della morte”, dice Rasmussen.
Rasmussen e il suo team hanno usato questa nuova tecnica, facendo campionature di terreno da 19 sepolture medievali nei cimiteri di Ribe e di Horsen in Danimarca.

Scoperto il nascondiglio in cui è rintanato il 10% del Dna ancora mancante nelle mappe del genoma umano.

Il Dna mancante si nasconde nel cuore dei cromosomi (fonte: Verena Schubel, Stefan Müller, Dipartimento di Biologia, Università Ludwig-Maximilians, Monaco)
Fonte: ANSA Scienze
----------------------------
Scoperto il nascondiglio in cui è rintanato il 10% del Dna ancora mancante nelle mappe del genoma umano: è stato identificato in una 'nicchia' dei cromosomi grazie al Dna dei latino-americani, che è stato scandagliato con un algoritmo messo a punto da un giovane matematico italiano che lavora nella Harvard Medical School di Boston. I risultati della ricerca sono pubblicati sull'American Journal of Human Genetics.

Il nascondiglio del Dna 'latitante' si trova in una regione del cromosoma chiamata centromero, che appare come una piccola strozzatura da cui prendono forma i suoi quattro bracci. Finora si era sempre pensato che questo fosse solo un elemento strutturale, un 'cardine' essenziale per la spartizione del materiale genetico durante la divisione cellulare, ma inadatto ad ospitare geni che controllano la produzione di proteine.

Questa teoria viene ora rivoluzionata dallo studio del Dna di 242 latino-americani che avevano preso parte al progetto di ricerca '1.000 Genomi'. Il loro materiale genetico è risultato essere molto prezioso per via della complessità delle loro origini, e in particolare per la presenza di una piccola percentuale di Dna di origine africana, un vero e proprio scrigno di diversità genetica che ha fornito importanti punti di riferimento per localizzare il Dna 'latitante'.

La caccia al nascondiglio di queste sequenze mancanti era impossibile con gli strumenti di sequenziamento genetico oggi disponibili. A superare questa impasse tecnologica è stato l'intuito dell'italiano Giulio Genovese, che ha sviluppato un algoritmo matematico che consente di localizzare le sequenze di Dna mancante sfruttando la loro vicinanza ad altre note che funzionano come punti di riferimento sulla mappa.

giovedì 8 agosto 2013

Sviluppato un trattamento non termico per rendere il latte più sicuro.

--------------------------------
Il progetto SMARTMILK ("A novel system for the treatment of milk based on the combination of ultrasounds and pulsed electric field technologies"), finanziato dall'UE, ha sviluppato un trattamento non termico per rendere il latte più sicuro, facendogli conservare allo stesso tempo il suo sapore naturale. Questa nuova tecnologia potrebbe aiutare il settore lattiero-caseario dell'UE, che produce 130 miliardi di litri di latte crudo ogni anno, a diventare più competitivo.

L'interesse dei consumatori per il latte crudo sta crescendo perché molte persone ritengono che esso contenga una proporzione più alta di microrganismi benefici e vitamine.

Tuttavia, il latte crudo o non adeguatamente pastorizzato è stato associato con diverse epidemie di infezioni enteriche causate da batteri quali Listeria e Campylobacter.

SMARTMILK si è basato sui promettenti risultati ottenuti dall'University College di Dublino, cha ha scoperto come un approccio che combina la termosonicazione con l'uso di un campo elettrico pulsato (CEP) potrebbe essere usato per mantenere il sapore naturale del latte uccidendo allo stesso tempo i microbi pericolosi.

La termosonicazione può aiutare a ridurre il danno termico che si fa al latte. Questa tecnica aiuta a conservare meglio il sapore e le sostanze nutrienti del latte crudo. Essa potrebbe anche portare a una scadenza del latte prolungata rispetto ai trattamenti tradizionali.

I ricercatori di SMARTMILK si sono concentrati sull'ottimizzare la combinazione di termosonicazione e CEP per trattare il latte. Il team ha completato la ricerca costruendo un prototipo di sistema basato sul metodo non termico di trattamento del latte sviluppato. Il processo SmartMILK è stato quindi testato con successo e convalidato in stabilimenti per la produzione del latte.

Il coordinatore del progetto SMARTMILK, il dott. Edurne Gaston Estanga, direttore di tecnologia alimentare alla IRIS in Spagna, ha detto che le aziende sarebbero in grado di trattare latte, succhi e altri prodotti liquidi senza compromettere il loro sapore e aroma.

"La combinazione di ultrasuoni e campi elettrici pulsati rappresenta un'alternativa alle alte temperature nel campo della pastorizzazione dei prodotti liquidi", ha spiegato.

Il progetto ha coinvolto organizzazioni di ricerca e aziende provenienti da Spagna, Irlanda, Regno Unito, Danimarca e Turchia. Insieme essi hanno sviluppato una tecnologia conveniente che l'industria europea lattiero-casearia e quella delle bevande possono utilizzare.

SMARTMILK ha ricevuto circa 1,1 milioni di euro dall'UE. Il progetto si è concluso nel marzo 2013.
Per maggiori informazioni, visitare:

IRIS
http://www.iris.cat/

Scheda informativa del progetto
http://cordis.europa.eu/projects/rcn/96180_it.html
ARTICOLI CORRELATI: 35699

IBM presenta TrueNorth: Il computer che imita il cervello.

---------------------------
Le premesse per quello che Ibm presenterà tra poche ore all'International Joint Conference on Neural Networks di Dallas non sono niente male. E c'è già chi pregusta una generazione radicalmente diversa di computer. Qualcosa che rappresenta “non un rimpiazzo degli attuali device, ma una porta su un mercato totalmente nuovo per la tecnologia”, per dirla con Karlheinz Meier, co-direttore dello Human Brain Project. Veniamo al nocciolo: quello di cui si parla è TrueNorth, una nuova architettura informatica che più di ogni altra sembra avvicinarsi all'obiettivo di emulare il cervello nel modo di processare i dati. Oggi, Ibm ne rivela il progetto. 
La storia che ci ha portato fin qui la ripercorre Technology Review. Nel 2011 l'azienda aveva presentato i chip basati su un network di core definiti neurosinaptici, in grado di gestire le informazioni proprio come farebbero i neuroni. Adesso è allo step successivo e ci mostra uno dei modi in cui questi chip possono essere usati per risolvere compiti e realizzare nuovi dispositivi. Per fare un esempio – e per entrare nel concreto – è in studio la realizzazione di una retina artificiale che funzioni proprio come quelle vere.

Per questa nuova architettura i vecchi linguaggi informatici non vanno bene: “Dobbiamo ripensare profondamente il significato stesso di programmazione”, dice 
Dharmendra S. Modha, ricercatore di IBM e coordinatore del progetto (qui il suo blog, da cui è possibile accedere anche ai tre studi divulgati oggi sulle possibili applicazioni di TrueNorth). Questo perché, a differenza dell'architettura informatica più utilizzata oggi - quella di von Neumann, in cui le informazioni sono processate in sequenza -, TrueNorth lavora in parallelo: in un sistema, cioè, dove i dati vengono immagazzinati e analizzati in un modo distribuito, come farebbero i neuroni, che comunicano attraverso le sinapsi.

I programmi per questo complesso cervello virtuale possono essere scritti usando quelli che all'Ibm chiamano corelet: ogni corelet specifica le funzioni di base di un gruppo di core neurosinaptici e può essere messo in comunicazione con gli altri in vari modi. Un po' come fossero delle matrioske”, dice Modha.

Per mostrare il funzionamento di tutto questo, il suo gruppo ha scritto un programma (per un supercomputer convenzionale) che simula un'enorme rete di 2 miliardi di core neurosinaptici: ogni core contiene un network di 256 neuroni digitali e in totale si formano circa 100 bilioni di sinapsi. Ogni neurone reagisce con tempi e modi propri ai dati in ingresso, o input, provenienti dai neuroni vicini.

Difficile dire quando siamo distanti dal vedere realizzato un primo sistema basato su TrueNorth, ma la strada sembra tracciata. 

Via: Wired.it
Credits immagine: Genista/Flickr

Innovativa tecnologia di integrazione 3D potrebbe migliorare i processi industriali.

--------------------------------
Gli ultimi gadget che arrivano sul mercato non sono mai stati così piccoli e veloci, e una tecnologia di integrazione 3D in fase di veloce sviluppo gioca un ruolo importante in questa evoluzione. Il processo, che consiste nell'accatastare matrici 2D e connetterle nella terza dimensione allo scopo di rendere più veloce la comunicazione tra circuiti integrati, si può trovare in dispositivi come quelli medici miniaturizzati e impiantabili e quelli a radiofrequenza che si trovano nei telefoni cellulari. Esso accatasta e interconnette materiali, tecnologie e componenti funzionali multipli per formare micro e nano sistemi altamente integrati per applicazioni intersettoriali.

FAB2ASM, un progetto supportato dall'UE che si era proposto di sviluppare una nuova tecnologia di produzione per l'integrazione 3D di microelettronica e microsistemi, si è recentemente concluso e ha pubblicato dei risultati positivi. Il team ha affrontato un'importante carenza nei tempi e nella precisione dello sviluppo della tecnologia che ostacola la produzione industriale mettendo assieme tradizionali strumenti robotici con la fisica dell'auto allineamento, dove minuscoli microchip si allineano a causa della tensione superficiale dei liquidi o di altre forze fisiche che agiscono a livello micro.

L'approccio principale prende il via con la progettazione dei componenti e dell'interfaccia. Nel processo, microchip forniti da robot ad alta velocità sono allineati con cura ai bersagli mediante auto montaggio seguito da adesione permanente per ottenere dispositivi 3-Dimensionali.

L'integrazione 3D è un'area di sviluppo tecnologico molto promettente e che possiede un enorme potenziale economico. "Supportare lo sviluppo di tecniche di micro-assemblaggio attraverso questo progetto permetterà di mantenere le nostre industrie a galla in un ambiente internazionale molto competitivo", ha detto il dott. Michael Gauthier, coordinatore di FAB2ASM.

In questo contesto, il consorzio ha puntato a migliorare la competitività della nano e micro produzione europea grazie all'uso di una tecnologia di integrazione che consente di produrre in maniera competitiva prodotti innovativi, controbilanciando allo stesso tempo la tendenza a esternalizzare la produzione in economie con remunerazioni più basse.

Diversamente dalla tecnologia di auto assemblaggio più esplorativa sviluppata finora, FAB2ASM non solo riutilizza la maggior parte dei processi industriali, ma migliora anche le prestazioni del processo di integrazione in termini di precisione ed efficienza. La tecnologia dipende da macchine robotiche per la movimentazione e il montaggio e dalla visione artificiale, che non possono essere allo stesso tempo rapide e precise. Ad esempio, se è necessario un micrometro i tempi di esecuzione dell'integrazione possono essere molto lunghi o in alcuni casi persino irrealizzabili.

I partner del progetto rappresentano una quota considerevole dell'industria europea nella produzione nano e micro e si aspettano che i risultati di FAB2ASM migliorino fino a un massimo del 5 % la loro quota di mercato nei dispositivi con microsistemi.

FAB2ASM ha completato il proprio lavoro nel mese di aprile di quest'anno ed era formato da 9 partner provenienti da 6 paesi europei. Il progetto ha ricevuto 4,7 milioni di euro dall'UE come parte di una strategia complessiva per supportare la ricerca che aiuta a migliorare la produzione industriale.
Per maggiori informazioni, visitare:

FAB2ASM
http://www.fab2asm.eu/

Scheda informativa del progetto % L
http://cordis.europa.eu/projects/rcn/94309_it.html
RCN: 35951

martedì 6 agosto 2013

Trovata la molecola responsabile del bruciore provocato dalle scottature da 'spiaggia'.

Fonte: ANSA Scienze
----------------------------
Trovata la molecola responsabile del bruciore provocato dalle scottature da 'spiaggia': si chiama Trpv4 e la sua scoperta potrebbe aiutare a combattere i tumori della pelle e creare nuove creme solari per abbronzature senza rischi. La molecola è stata identificata da un gruppo di ricerca coordinato dall'americana Duke University, i cui risultati sono stati pubblicati sulla rivista dell'Accademia delle Scienze degli Stati Uniti, Pnas.

Le radiazioni solari, in particolare i raggi ultravioletti di tipo B (Uvb), aiutano le cellule della pelle a produrre molecole, come la vitamina D, necessarie per il benessere del corpo. Una sovraesposizione a questi raggi può però essere molto dannosa in quanto possono arrecare danni al Dna e quindi provocare malattie della pelle. In questo contesto le dolorose scottature rappresento un vero e proprio allarme per 'invitare' a non restare ancora sotto al Sole.

Cercando di comprendere i meccanismi cellulari che governano il 'segnale' di dolore e prurito associato alle scottature, i ricercatori statunitensi ne hanno identificato la causa: si chiama Trpv4 ed è un canale di ioni, una sorta di cancello posto sulla superficie delle cellule per controllare i livelli di calcio. Il lavoro è stato possibile utilizzando inizialmente topi modificati geneticamente, ai quali era stato 'spento' il gene responsabile della formazione della Trpv4 e topi normali. Esponendo le zampe posteriori dei topi, le aree della pelle più simili a quella umana, i ricercatori hanno osservato che mentre nei secondi comparivano i classici segni delle bruciature, nei primi i segni erano quasi completamente assenti.
Utilizzando poi cellule umane è stato possibile individuare i meccanismi molecolari che avvengono a seguito di lunghe esposizioni agli Uva. I ricercatori hanno scoperto così che queesti raggi porterebbero all'attivazione della Trpv4, che permette l'entrata di un gran numero di ioni calcio all'interno della cellula. A loro volta le molecole di calcio portano all'attivazione di un'altra molecola, la vera causa delle sensazioni di dolore e prurito, chiamata endotelina e che a sua volta, come in un circolo vizioso, stimola la Trpv4 a far entrare altri ioni calcio.

"Questi risultati - ha spiegato Martin Steinhoff, uno dei responsabili dello studio - indicano che la Trpv4 debba essere il nuovo obiettivo per prevenire e trattare le scottature solari, e probabilmente le malattie provocate dal Sole'', come il melanoma, il più aggressivo tumore della pelle. La stessa molecola potrebbe anche aiutare a combattere l'invecchiamento della pelle provocato dai raggi solari. ''Bisogna fare però ancora molta strada prima che gli inibitori della Trpv4 possano diventare un'arma di difesa solare", ha detto l'esperto. "Immagino - ha concluso - che questi inibitori potranno essere aggiunti ai tradizionali filtri solari per garantire una migliore protezione".

lunedì 5 agosto 2013

Cancro: scoperti i geni indispensabili per scatenare e alimentare la malattia, e le prime armi capaci di neutralizzarli.

Dopo la mappa genetica dei tumori, sono stati individuati i geni killer, indispensabili alla malattia per svilupparsi (fonte: Anna Lasorella, MD/Columbia University Medical Center)
Fonte: ANSA Scienze
-----------------------------
Si volta pagina nella lotta contro il cancro, grazie alla scoperta dei geni indispensabili per scatenare e alimentare la malattia, e con le prime armi capaci di neutralizzarli.
Il risultato, che apre concretamente la strada a cure anticancro su misura, riguarda il più comune e aggressivo tumore del cervello, il glioblastoma multiforme, ed è pubblicato sulla rivista Nature Genetics.
La ricerca è stata condotta dal gruppo della Columbia University di New York guidato dall’italiano Antonio Iavarone, che ha lasciato l’Italia molti anni fa denunciando un caso di nepotismo.

Da tempo era stata ottenuta la mappa genetica di numerose forme di tumore, come quelli di polmone, intestino, seno e prostata, e adesso per la prima volta diventa possibile individuare, all’interno di queste mappe, i geni davvero pericolosi, quelli indispensabili al cancro per sopravvivere: scoprirli significa avere bersagli preziosi contro i quali scatenare i farmaci e fare un passo decisivo verso cure personalizzate. ‘’Nel nostro studio abbiamo scoperto che, grazie alla comprensione delle alterazioni genetiche presenti in un singolo tumore, per circa il 15% dei pazienti potrebbero essere disponibili farmaci già esistenti’’, ha detto all’ANSA Iavarone, che ha condotto la ricerca con un’altra italiana, Anna Lasorella. ‘’Ricerche come queste – ha aggiunto – sono tanto più importanti in quanto si concentrano su tumori per i quali non ci sono terapie efficaci, come i tumori maligni del cervello’’.

La scoperta conferma l’appello recentemente lanciato negli Stati Uniti dagli oncologi per cancellare la parola ‘’tumore’’: ‘’è una richiesta – ha proseguito Iavarone - che parte dal fatto che ogni caso di tumore è diverso dall’altro e può avere una possibilità terapeutica in alcuni casi immediatamente possibile’’.

Non esiste più quindi il tumore, ma una miriade di malattie causate da altrettante alterazioni genetiche dalle quali dipendono completamente. ‘’Non basta avere la lista dei geni legati a un tumore: bisogna individuare quelli dai quali la malattia dipende come da una droga’’, ha osservato il ricercatore. ‘’Colpirli – ha aggiunto – significa far collassare il tumore’’ e per ognuno di essi è possibile sperimentare un farmaco diverso, fra quelli già disponibili sul mercato. Ciò significa anche poter abbreviare i tempi della sperimentazione, poiché i farmaci sul mercato hanno già superato le prove relative alla sicurezza.

Gli strumenti per andare a caccia dei geni killer arrivano dalla bioinformatica, grazie all’algoritmo progettato da Raul Rabadan, sempre della Columbia University. Una volta individuati, la loro funzione viene studiata nelle cellule staminali tumorali prelevate dal paziente.
Questo permette di sperimentare farmaci antitumorali oggi disponibili contro i bersagli giusti, una volta trasferite nei topi le staminali tumorali prelevate dai pazienti. In questo modo è possibile verificare se la terapia individuata è davvero efficace.
Tutto è ancora ad un livello sperimentale e la strada appena all’inizio, ma di sicuro è stata aperta una via nuova, una ‘roadmap’’ nella lotta ai tumori, come la definiscono gli stessi ricercatori.

Arriva il liquido che non cristallizza mai: Apre la strada a nuovi materiali.

Fonte: ANSA Scienze
----------------------------
E' possibile produrre un liquido che rimane tale a qualsiasi temperatura senza cristallizzare, più stabile di un solido: si apre così la strada a una nuova generazione di materiali, come gel e vetri con proprietà fisiche controllabili, che potrebbero trovare applicazione nei campi più disparati, rivoluzionando la nostra vita come fece la plastica circa un secolo fa. Lo dimostra lno studio pubblicato sulla rivista Nature Physics da due ricercatori dell'università Sapienza di Roma, Frank Smallenburg e Francesco Sciortino.

Il liquido che non cristallizza mai è frutto di uno studio teorico, ma in futuro potrà servire a produrre gel e vetri di ultima generazione, utili in campo medico (ad esempio con gel per lenti a contatto o biocompatibili per la ricostruzione di cartilagini ossee), agricolo (gel repellente contro gli insetti o come sostituto della terra per piante in vaso) e ambientale (vetri molecolari con particolari proprietà isolanti).

Il liquido appartiene al mondo della cosiddetta 'materia soffice', che comprende quelle sostanze (come gel, schiume e creme) che sono troppo dense per essere dei liquidi e troppo morbide per essere dei solidi. Tra queste ci sono i colloidi, soluzioni di minuscole particelle (grandi da 10-20 milionesimi di millimetro fino al millesimo di millimetro) disperse in un liquido o in un gas.

Gli esperti della materia soffice sono riusciti a costringere le particelle colloidali prodotte in laboratorio a comportarsi come atomi, cioè ad aggregarsi in molecole colloidali realizzando così strutture complesse che imitano, a scale di grandezza maggiore, ciò che avviene spontaneamente nella fisica atomica e molecolare. Fare interagire le molecole colloidali secondo schemi disegnati dall'uomo permette di realizzare in laboratorio i mattoni per materiali innovativi con proprietà elettriche, meccaniche e ottiche controllabili.

Un navigatore Gps nel cervello: Ci guida usando le mappe disegnate dai neuroni 'cartografi'.

Le cellule-griglia potrebbero fare luce sui problemi di orientamento dei malati di Alzheimer (fonte: Knight Alzheimer's Disease Research Center)
----------------------------
Nel cervello umano esiste un 'navigatore Gps' che ci guida negli spostamenti grazie a delle vere e proprie mappe: le disegnano i neuroni 'cartografi', che entrano in azione quando dobbiamo muoverci in un ambiente che non conosciamo. Lo dimostra uno studio pubblicato su Nature Neuroscience dai ricercatori statunitensi della Drexel University e della Thomas Jefferson University di Philadelphia, insieme ai colleghi delle università della Pennsylvania e della California a Los Angeles.

I neuroni 'cartografi' costituiscono una nuova tipologia di cellule nervose (chiamate 'cellule-griglia') che disegnano nella mente le coordinate spaziali con cui ci muoviamo. Sono stati localizzati in due aree cerebrali: la corteccia cingolata e in quella entorinale. Quest'ultima è una regione cruciale per la memoria, la prima ad essere danneggiata dal morbo di Alzheimer. Per questo i ricercatori pensano che lo studio del funzionamento delle cellule-griglia possa fare luce sui problemi di orientamento che colpiscono i malati di Alzheimer.

Le cellule-griglia erano già state identificate nel cervello di scimmie, pipistrelli e roditori. Nei topi, in particolare, costituiscono il cuore del 'navigatore', che formano insieme ad altri due tipi di cellule: quelle 'di direzione', che funzionano come una bussola, e quelle 'di posizione', che si attivano quando l'animale si trova in un punto particolare dello spazio.
Finora nel cervello umano erano state identificate solo le cellule di posizione, localizzate nell'ippocampo. Le cellule-griglia, invece, rappresentano una vera e propria novità. Un indizio della loro presenza era stato raccolto nel 2010 grazie a delle tecniche di indagine non invasive di brain imaging.
A tre anni di distanza, i ricercatori statunitensi sono riusciti a trovare la prima prova della loro esistenza misurando direttamente l'attività cerebrale attraverso degli elettrodi impiantati nel cranio di 14 pazienti che dovevano già sottoporsi a delle sedute di stimolazione cerebrale per contrastare una grave forma di epilessia resistente ai farmaci. Durante la registrazione, a ciascun paziente è stato chiesto di cimentarsi con un videogioco in cui doveva muoversi in uno spazio virtuale alla ricerca di oggetti da recuperare. Oltre all'accensione delle cosiddette cellule 'di posizione', i ricercatori hanno potuto visualizzare per la prima volta anche quella delle cellule-griglia che si attivano durante lo spostamento per determinare la posizione relativa nello spazio.

Idrogeno come fonte di energia: forse disponibile fra qualche anno.

Fonte: Gaianews.it
--------------------------
Secondo un team di scienziati della University of Colorado Boulder l’utilizzo dell’idrogeno come fonte di energia non sarebbe poi così lontana. Il team ha infatti realizzato un sistema in grado di utilizzare la luce solare come fonte di energia per dividere l’acqua in idrogeno e ossigeno.
Il metodo si avvale di una vasta gamma di specchi che concentrano la luce solare su un unico punto in cima a una torre centrale. Le temperature potrebbero salire ad un massimo di 1.350 gradi Celsius. L’energia sarebbe poi inviata ad un reattore che contiene ossidi di metallo, che, quando riscaldato, rilasciano atomi di ossigeno, secondo il rapporto sulla rivista Science.
Questo, a sua volta, porterebbe il materiale a cercare nuovi atomi di ossigeno. Quando viene aggiunto il vapore prodotto dall’acqua bollente nel contenitore del reattore, le molecole di ossigeno aderiscono all’ossido di metallo, liberando molecole di idrogeno che vengono raccolte come gas, dice lo studio.
“Abbiamo progettato qualcosa che è molto diverso da altri metodi e qualcosa a cui non era possibile pensare prima”, ha detto il professor Alan Weimer in un comunicato. Weimar è un membro del team che ha lavorato al progetto. “La divisione dell’acqua con la luce del sole è il Santo Graal di un’economia dell’idrogeno sostenibile.”
Anche se ci sono altri metodi per dividere l’acqua in idrogeno e ossigeno, gli scienziati della Boulder Colorado sostengono che il loro metodo sia unico perché le due reazioni chimiche possono essere fatte alla stessa temperatura.
“Gli approcci più convenzionali richiedono il controllo sia della commutazione della temperatura nel reattore da uno stato caldo a uno stato freddo, e poi l’introduzione di vapore nel sistema”, ha detto il professore associato Charles Musgrave. “Una delle grandi novità del nostro sistema è che non vi è alcuna oscillazione della temperatura. L’intero processo è guidato ruotando una valvola per attivare e disattivare il vapore”.
Con il nuovo metodo, la quantità di idrogeno prodotto per celle a combustibile o per il rimessaggio è interamente dipendente dalla quantità di ossido metallico – che si compone di una combinazione di ferro, cobalto, alluminio e ossigeno – e da quanto vapore viene introdotto nel sistema.
Nonostante i risultati, per la commercializzazione del prototipo  si dovranno attendere ancora degli anni.

Robot di gelatina: Fatti in gran parte di acqua, sono deformabili a piacere.

I robot fatti di idrogel sono in grado di afferrare oggetti (fonte: Orlin Velev)

Fonte: ANSA Scienze
---------------------------
Una gelatina informe fatta di acqua e in grado di muoversi, afferrare oggetti e trasformarsi: sono gli idrogel che potrebbero diventare il 'corpo' dei futuri robot deformabili a piacere. I nuovi materiali a base di acqua messi a punto da ricercatori dell'Università del North Carolina e descritti sulla rivista Nature Communication rappresentano un passo in avanti importante verso la cosiddetta 'robotica soffice'. Tante le applicazioni possibili, comprese quelle in campo medico.

Il lavoro ha portato allo sviluppo di particolari materiali detti idrogel, gel trasparenti e parzialmente biocompatibili a base di acqua con una piccola aggiunta di molecole polimeriche, in grado di muoversi a comando. Inserendo infatti ioni di rame all'interno del reticolo gelatinoso, i ricercatori hanno trovato il modo di poter controllare la 'gelatina' che, attraverso impulsi elettrici, può variare la forma e irrigidire la struttura. Il gel è in grado di assumere le forme più diverse, ad esempio può diventare una tenaglia in grado di afferrare e racchiudere oggetti.

Questo nuovo materiale rappresenta un importante passo in avanti per dare vita a una nuova generazione di robot in grado di riprodurre i movimenti di alcuni essere viventi e trovare applicazione anche in settori diversi, comequello biomedico per la somministrazione controllata di farmaci o per realizzare 'impalcature' variabili' per organizzare la crescita di tessuti cellulari nelle tre dimensioni.

venerdì 2 agosto 2013

Così si 'strizzano' i dati nei computer quantistici: Uno studio italiano dimostra che la compressione è possibile.

Schema del processo che porta a trasferire i dati di due fotoni in uno (fonte: Sapienza, Università di Roma)
Fonte: ANSA Scienze
----------------------------
Nuovo passo avanti verso i super computer del futuro che sfruttano la luce per la trasmissione dei dati. Una ricerca italiana ha dimostrato per la prima volta la possibilità di comprimere e decomprimere le informazioni 'scritte' nei pacchetti di luce senza rischiare di perderle. Il risultato, pubblicato sulla rivista Nature Photonics, si deve ai ricercatori delle università Sapienza di Roma e Federico II di Napoli.
La ricerca, coordinata da Fabio Sciarrino della Sapienza e Lorenzo Marrucci dell'università di Napoli, è stata finanziata dal progetto europeo 'Phorbitech' nell’ambito del programma Fet (Future Emerging Technologies).

Lo studio dimostra come sia possibile 'strizzare' in un'una particella di luce (fotone) tutti i dati normalmente scritti in due o più fotoni, e propone inoltre un metodo per realizzare il processo inverso. La possibilità di eseguire questa sorta di 'compressione' rappresenta un importante passo avanti per la tecnologia che sfrutta le proprietà del mondo quantistico (che governa gli atomi e le particelle elementari) per eseguire operazioni altrimenti impossibili secondo le leggi della fisica classica.

Fino ad oggi, ogni fotone poteva trasportare solo l’equivalente quantistico di un singolo bit d’informazione, il cosiddetto 'qubit' che può valere zero o uno, oppure trovarsi in un particolare stato quantistico che coinvolge entrambi i valori. Per fare in modo che uno stesso fotone trasportasse più di un qubit alla volta (usando diverse proprietà fisiche della luce come la polarizzazione, la lunghezza d’onda, o il profilo dell'onda) bisognava generarlo direttamente in questo stato.

giovedì 1 agosto 2013

Successo polacco nel trapianto facciale.


Fonte: Euronews
-----------------------
Dopo soli 3 mesi di ospedale il primo trapiantato facciale polacco è potuto rientrare a casa.

I medici del Centro onclogico di Gliwice in Polonia avevano impiegato 27 ore per eseguire il delicato intervento che ha ridato un volto ad un operaio 33enne rimasto gravemente sfigurato

Professor Sebastian Giebel:
“ Si è verificato un grande pericolo che non aveva precedenti in analoghe operazioni. Non avevamo la giusta immunocompatibilità e il giusto antigene per l’ istocompatibilità. Per esempio, durante il primo trapianto che era stato fatto in Francia 5 o 6 antigeni erano compatibili mentre nel nostro trapianto solo 2 erano compatibili quindi il rischio di rigetto era elevato”


L’unicità di questo trapianto durato 27 ore sta nel fatto che è stato eseguito a brevissima distanza di tempo dall’evento traumatico.

I trapianti facciali sono molto rari e complicati con procedure che richiedono a volte mesi se non anni di preparazione.

Professeur Adam Maciejewski:
“ La difficolta’ è stata data dal fatto che è stata la prima operazione del genere realizzata in condizioni d’ urgenza. Il tessuto era stato cosi’ danneggiato che non sarebbe guarito fino al momento di una operazione programmata. Nei precedenti trapianti facciali fatti nel resto del mondo i corpi avevano avuto il tempo di essere preparati per il processo della complessa operazione”


Il paziente ha fatto enormi progressi con l’intervento chirurgico. Puo’ leggere, sentire i sapori e anche un po’ gli odori. Resta difficile poter parlare perchè i suoi muscoli facciali hanno bisogno di tempo per tornare ad essere mobili. Dal 2005 ad oggi sono state trapiantate cosi’ in tutto il mondo circa 24 persone .