twitterfacebooktwitterfacebook

Appuntamenti

 

 

 

 

Piero Bianucci
La mia notizia
Premio GS "Elena Benaduce" 2020

Il PREMIO GiovedìScienza "ELENA BENADUCE 2020" è stato assegnato da una Giuria di studenti di scuole torinesi a Veronica Ferrero, giovane ricercatrice dell'Istituto Nazionale di Fisica Nucleare, per il lavoro "Game of positrons ovvero l’antimateria contro i tumori" che ha presentato ieri all'Accademia delle Scienze di Torino in gara con altri nove concorrenti.

 

Vincitore del premio GiovedìScienzadel è risultato Matteo Bertagni, nato a Milano ma triestino di adozione, ora ricercatore al Politecnico di Torino, Dipartimento di Ingegneria dell’Ambiente. Il progetto che il giovane ricercatore ha presentato è una ricerca sul ripristino dello stato naturale dei fiumi.

 

 

PREMIO GIOVEDÌSCIENZA FUTURO a Jessica Petiti- Università degli studi di Torino, con la ricerca “Kit diagnostico per la valutazione dello stato mutazionale del gene IDH2 nella leucemia mieloide acuta”

 

 

PREMIO INDUSTRIA 4.0, rivolto ai candidati che, oltre al progetto scientifico, abbiano sviluppato anche una proposta progettuale, a Marco Miniaci - Politecnico di Torino - Dipartimento di Scienza Applicata e Tecnologia, con la ricerca "Il mantello dell'invisibilità (elastica): controllare le onde con i metamateriali."          

 

Il video della competizione finale è disponibile al link:

https://www.youtube.com/watch?v=Ova_GUyn0Ew&feature=youtu.be

Per rivedere la premiazione: 

https://www.youtube.com/watch?v=qWGg6X-LZiw

 


POSITRONIO, ANTIMATERIA RIBELLE

~~L’antimateria non si comporta come la materia: per la prima volta viene rilevata una discrepanza in una simmetria che si riteneva perfetta, e non è trascurabile: una parte su mille, molto di più del margine di errore delle misure. Dunque l’elettrodinamica quantistica valida per la materia risulta inadatta a spiegare con precisione il comportamento dell’antimateria, e in particolare degli anti-atomi di idrogeno (positronio). Su questo tema suggestivo riprendo l’interessante articolo di Matteo Rini, vicedirettore di “Physics”, che a sua volta offre la versione divulgativa dell’articolo scientifico originale, comparso su “Physical Review Letters”. Ecco la traduzione:

“Il positronio è un atomo simile all'idrogeno composto da un elettrone e un positrone (antielettrone). Poiché il positronio non contiene protoni o neutroni, le interazioni nucleari possono essere trascurate e l'atomo può essere accuratamente descritto esclusivamente dall'elettrodinamica quantistica (QED), la controparte quantistica dell'elettromagnetismo classico. Quindi, il positronio è un sistema ideale per testare la QED e cercare deviazioni che potrebbero suggerire una nuova fisica al di là del modello standard. Con questo scopo, David Cassidy e collaboratori dell'University College di Londra, Regno Unito, hanno caratterizzato la "struttura fine" del positronio con una precisione senza precedenti, rivelando discrepanze con le previsioni QED. “La struttura fine di un atomo descrive la divisione dei suoi livelli di energia a causa degli spin elettronici e degli effetti relativistici. Misurarla accuratamente per il positronio è impegnativo, perché il sistema si annichilisce entro poche centinaia di nanosecondi dalla sua produzione. Segnalando le prime nuove misurazioni della struttura fine in oltre 25 anni, Cassidy e i suoi colleghi descrivono in dettaglio i passaggi che hanno intrapreso per migliorare l'accuratezza e ridurre al minimo gli errori sperimentali sistematici. In particolare, hanno utilizzato il laser per preparare selettivamente il positronio in uno stato elettronico in cui la sua durata tisulta prolungata; hanno raffreddato gli atomi per ridurre al minimo gli effetti Doppler che ampliano le linee atomiche; e hanno misurato le transizioni utilizzando microonde a bassa potenza che non modificano in modo significativo i livelli di energia atomica.

“Il team ha dimostrato che la frequenza osservata di una specifica transizione di positronio è circa una parte su mille più grande di quella prevista dalla QED, una differenza che supera significativamente i margini di errore stimati. Con ulteriori miglioramenti, le misurazioni di questa transizione e di altre potrebbero presto essere in grado di spiegare questa deviazione e valutare se implica una nuova fisica.”


CENSIRE IL MICROBIOTA  

Un istituto del Cnr e l’Università di Bari hanno escogitato una tecnica per quantificare tramite il DNA gli organismi microbici, le forme di vita più diffuse sulla Terra, con un forte impatto in molti ambiti, specie sulla nostra salute. La nuova tecnica promette un vasto campo applicativo per la cura dell’obesità, del diabete e di varie malattie autoimmuni e forme di tumore.

Il team diretto da Graziano Pesole dell’Istituto di biomembrane, bioenergetica e biotecnologie molecolari del Consiglio nazionale delle ricerche di Bari e dell’Università “Aldo Moro” ha messo a punto il nuovo sistema utilizzando la tecnica di biologia molecolare “droplet digital PCR” che è in grado di quantificare in modo estremamente accurato la carica batterica presente in un campione. Il metodo misura il numero assoluto di copie del gene 16S rRNA, presente nelle cellule batteriche, tenendo in considerazione anche lo stato di degradazione del DNA. Il lavoro è pubblicato su Microbial Genomics.

 


ACQUA CHE GALLEGGIA SULL'ACQUA

~~“Hai scoperto l’acqua calda” si dice a chi crede di aver inventato qualcosa di importante che invece è una banalità. Questa volta hanno scoperto l’acqua fredda, e non è affatto una banalità. Da ieri sappiamo che esistono due forme di acqua liquida, una più densa e pesante, l’altra meno, una con molecole più organizzate, l’altra con molecole più disordinate. I due tipi di acqua liquida si separano a bassissima temperatura, e una galleggia sull’altra. Lo annuncia sull’ultimo numero di “Science” un gruppo di ricerca dell’Università di Roma 1 diretto da Raffaello Sciortino che ha lavorato con un team dell’Università di Princeton diretto da Pablo Debenedetti.

 

https://www.lastampa.it/scienza/2020/07/18/news/la-scoperta-dell-acqua-fredda-1.39097630

 


ADDIO A CORRADO LAMBERTI

l 17 aprile il Covid 19 si è portato via Corrado Lamberti, fondatore nel 1979, con Margherita Hack, della rivista "l'astronomia". All'inizio era un bimestrale. Il grande successo in edicola indusse Corrado, Margherita e l'editore a trasformarla in mensile. La mia collaborazione incominciò fin dal terzo numero. 

Dopo “l’astronomia”, sempre con Margherita Hack, Corrado Lamberti fondò “le Stelle - Mensile di cultura astronomica”. Il primo numero uscì nel novembre 2002. Rilevato dall’editore Angelo Faggiano sotto l’etichetta Gruppo B, “le Stelle” ha raccolto le migliori firme dell’astronomia e dell’astrofisica, mantenendo l’attenzione agli aspetti filosofici e umanistici della scienza del cielo tanto cari a Corrado, alla Hack e a suo marito, che era professore di Lettere.

Nel 2011 Angelo Faggiano mi affidò la responsabilità dei contenuti della rivista, incarico che ho conservato fino al gennaio 2017, quando me ne andai per incompatibilità con il nuovo editore, che aveva messo le riviste sotto il controllo di un esponente della massoneria.

Ormai, avendo indagato anche sul suo passato, mi erano chiare le intenzioni del nuovo editore, che infatti, dopo avermi defraudato di un credito di 18 mila euro, come prima cosa tolse dalla testata la scritta “fondato da Margherita Hack e Corrado Lamberti” e qualche mese fa ha soppresso sia “le Stelle” sia “Nuovo Orione”, rivista fondata da Walter Ferreri negli anni 70.

A Corrado grazie per aver dato vita a “le Stelle”. E' doloroso, caro Corrado, che tu abbia dovuto assistere anche alla sua morte, e poi guardare in faccia il Covid 19. Quanto a me, sono contento di aver denunciato le intenzioni del nuovo editore, di non essere stato suo complice e di aver lasciato a lui e ai suoi uomini la vergogna di uccidere quelle due testate.

Ti ricordo nel nostro ultimo incontro a Padova, per la Cicap Fest dello scorso autunno, risento la tua voce mentre facevamo insieme colazione in una specie di monastero prima andare ai nostri appuntamenti. Eravamo allegri. Come tutto cambia, quanto arriva il punto fermo.


Licheni, polvere,virus

24 marzo 2020

La pandemia di coronavirus ha posto molte domande per ora senza risposta. Una è se le polveri sottili che pullulano nell'aria della pianura padana siano un veicolo del Covid19. La risposta potrebbe venirci dai licheni.   

Le proprietà magnetiche dei licheni trapiantati ed esposti in città sono un buon indicatore del bioaccumulo di metalli pesanti – ferro, cromo, rame e antimonio – emessi principalmente nelle frenate di automobili e mezzi di trasporto. È quanto emerge da una ricerca condotta da ricercatori dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV) in collaborazione con l’Università di Siena e dell’Università Federico II di Napoli, pubblicata sulla rivista “Applied Sciences”.

Le polveri sottili atmosferiche da inquinamento antropico sono oggetto di un crescente interesse epidemiologico. In particolare, la crescente attenzione per le polveri sottili si è focalizzata sul dibattuto ruolo del particolato (PM) nel trasporto e nella diffusione di contaminanti chimici e biologici, inclusi i virus.

“Nello studio da noi pubblicato”, spiega Aldo Winkler, Primo Tecnologo dell’INGV e coautore dell’articolo, “sono state esaminate e comparate le proprietà magnetiche, chimiche e morfologiche delle polveri sottili accumulate dai licheni trapiantati ed esposti per tre mesi in venticinque siti nella città di Milano che, con 1,4 milioni di abitanti, è una delle più densamente popolate d'Italia”.

Il capoluogo lombardo si trova in Pianura Padana, una regione notoriamente caratterizzata da inversione termica, stagnazione di masse d'aria e clima continentale, con inverni lunghi e rigidi e temperature elevate in estate: tali caratteristiche la rendono una delle zone più inquinate da particolato fine (il PM2.5 e PM10, a seconda del diametro espresso in millesimi di millimetro).

“La sensibilità magnetica dei licheni è un dato semplice e veloce da misurare, utile a individuare l'inquinamento atmosferico. La nostra ricerca dimostra come le proprietà magnetiche dei trapianti lichenici costituiscano un valido indicatore del bioaccumulo dei metalli pesanti presenti nel particolato atmosferico. Inoltre, la combinazione di analisi chimiche, magnetiche e morfoscopiche ci ha permesso di individuare nell’abrasione dei freni  la principale sorgente delle polveri sottili magnetiche (ad alto contenuto in metalli pesanti) intercettate dai licheni esposti nella città di Milano”.

 Link alla pubblicazione: https://www.mdpi.com/2076-3417/10/6/2073/pdf

 


Raggi laser intrecciati

Dalla agenzia ANSA Scienza.it:

Le comunicazioni potranno diventare più sicure grazie a singole particelle di luce (fotoni) che, come un'invisibile colla, permettono a due fasci laser di parlarsi a distanza, sfruttando le proprietà della meccanica quantistica. E' il risultato di un esoerimento eseguito dai fisici dell'Istituto Nazionale di Ottica del Consiglio Nazionale delle Ricerche (Ino-Cnr) di Sesto Fiorentino, coordinato da Marco Bellini e Alessandro Zavatta.

Pubblicato sulla rivista Physical Review Letters (Prl), l'innovativo sistema di comunicazione si basa su una "strana correlazione a distanza" tra le particelle, come Einstein amava definire il cosiddetto 'entanglement', una delle più bizzarre proprietà del microcosmo, in cui le particelle si influenzano da lontano senza mai entrare in contatto.

"Nel nostro esperimento un singolo fotone, la particella elementare della luce, viene aggiunto contemporaneamente a due diversi fasci laser", spiega Nicola Biagi, primo autore dello studio. "A differenza degli oggetti comuni e grazie alle proprietà della meccanica quantistica, particelle indivisibili come i fotoni possono, infatti, trovarsi allo stesso tempo in due posizioni distinte. In questo modo - aggiunge il fisico - un singolo fotone costituisce il collante per tenere legati, attraverso l'entanglement, due diversi impulsi di luce, fino a quel momento completamente indipendenti. Uno strumento promettente - conclude Biagi - per lo scambio di comunicazioni inviolabili".


Scoperto il gene "petaloso"

Un gene iperattivo aumenta il numero di petali di fiori come le rose, le petunie e i garofani. Lo dimostra uno studio italiano pubblicato sul Journal of Experimental Botany dal gruppo dell’Università Milano coordinato da Laura Rossini e da Stefano Gattolin, dell’Istituto di biologia e biotecnologia agraria del Consiglio Nazionale delle Ricerche (Ibba-Cnr), e condotto in collaborazione con il Parco tecnologico padano di Lodi.

Utilizzando banche dati del Dna di diverse specie di piante, i ricercatori hanno individuato mutazioni molto simili, collegate a un gene chiave dello sviluppo del fiore, del quale modificano la regolazione in modo da farlo lavorare più a lungo fino ad avere un’abbondanza di petali.

“È stato davvero sorprendente analizzare uno ad uno i geni che ritenevamo coinvolti e ritrovare via via mutazioni analoghe nella rosa Rugosa, nei garofani e nelle popolari petunie doppie, quelle cioè con un numero aumentato di petali”, ha osservato Gattolin.

 

Le varietà di fiori che hanno un numero superiore di petali rispetto ai tradizionali cinque sono molto ricercate nel mercato vivaistico. L’uomo nei secoli ha selezionato le mutazioni naturali avvenute in questo gruppo di geni, favorendo così la diffusione di varietà con fioriture spettacolari. Per Rossini, “il trasferimento di questa informazione genica a specie diverse non era affatto scontato. Basti pensare - ha aggiunto - che le piante che abbiamo studiato sono talmente diverse che un loro antenato comune risale al Cretaceo, quando ancora il mondo era dominato dai dinosauri”.

Questa conoscenza, concludono gli esperti, potrà in futuro essere applicata allo sviluppo di nuove varietà a fiore doppio in altre piante, anche attraverso le nuove tecniche di taglia e incolla il Dna, che consentono di modificare in maniera mirata specifiche sequenze geniche.


Piante collegate via satellite

Per la prima volta un dispositivo che utilizza elettricità generata dalle piante ha comunicato via satellite. Si delinea la possibilità di collegare a distanza sensori posti sulle contivazioni, una sorta di Internet dell'agricoltura. Il dispositivo può informare gli agricoltori sulle condizioni delle loro colture per contribuire ad aumentarne la resa e consentire ai rivenditori di ottenere informazioni sui potenziali raccolti.

Il dispositivo, benché a bassissima potenza, invia segnali a frequenze radio che vengono rilevati dai satelliti in orbita terrestre bassa. È stato sviluppato dalla società olandese Plant-e e Lacuna Space, con sede nei Paesi Bassi e nel Regno Unito, nell'ambito del programma ESA di ricerca avanzata nei sistemi di telecomunicazione (ARTES) . La quantità di energia elettrica prodotta può arrivare a 3,2 W per metro quadrato. Sono già in atto installazioni di biopannelli utilizzabili a livello urbano.

Le piante producono materia organica tramite la fotosintesi, ma solo una parte di questa materia viene utilizzata per la crescita delle piante. Il resto viene escreto nel terreno attraverso le radici della pianta. Nel suolo, i batteri intorno alle radici scompongono questa sostanza organica, liberando elettroni come prodotto di scarto. La tecnologia sviluppata da Plant-e raccoglie questi elettroni per alimentare piccoli dispositivi elettrici. In altre parole la differenza di potenziale tra l'acqua del terreno e gli ioni prodotti derivanti dai batteri che colonizzano le radici equivale a quella di una piccola batteria ed è sufficiente per alimentare il dispositivo costituito da sensori e sistema di trasmissione satellitare.
Frank Zeppenfeldt, che lavora sui futuri sistemi di comunicazione satellitare dell'ESA, ha dichiarato: “Siamo entusiasti di questa dimostrazione che combina biotecnologia e tecnologia spaziale."

Una serie di nuove opportunità per l'Internet delle cose via satellite sarà resa possibile da questo esperimento. Aiuterà a raccogliere dati in applicazioni agricole, logistiche, marittime e di trasporto anche là dove la connettività terrestre non è sempre disponibile.


Sfugge ancora il neutrino di Majorana

Dal comunicato dell'INFN del 9 gennaio 2020:

La collaborazione scientifica internazionale che conduce l’esperimento CUORE (Cryogenic Underground Observatory for Rare Events) ai Laboratori Nazionali del Gran Sasso dell’INFN Istituto Nazionale di Fisica Nucleare ha reso pubblici gli ultimi risultati sperimentali, che rappresentano più di due anni di presa dati, da aprile 2017 a luglio 2019. Questo nuovo studio, che corrisponde a un incremento significativo dei dati raccolti, rispetto a quelli pubblicati nell’ottobre 2017, fornisce un limite ancora più stringente sull’esistenza di un processo rarissimo, che proverebbe che il neutrino è una particella di Majorana, coincide cioè con la sua antiparticella. Questa singolare proprietà è di fondamentale importanza in quanto permette di spiegare i meccanismi alla base dei processi di creazione della materia, gli stessi che hanno caratterizzato i primi istanti della formazione dell’universo.

“Abbiamo più che quadruplicato i dati raccolti e siamo tra gli esperimenti più sensibili al mondo nella corsa alla scoperta di questo decadimento raro” sottolinea Oliviero Cremonesi, ricercatore dell’INFN di Milano Bicocca a capo della collaborazione CUORE.

L’esperimento CUORE è stato progettato per scoprire il rarissimo processo chiamato doppio decadimento beta senza emissione di neutrini, teorizzato ma mai osservato, in cui non vengono creati antineutrini, al contrario di quanto previsto dalle attuali teorie. Essi, infatti, si annichilano l’un l’altro durante il decadimento, dimostrando in questo modo che il neutrino è l’antiparticella di se stesso, come il famoso fisico italiano Ettore Majorana ipotizzò nel 1937. Riuscire a osservare questo decadimento confermerebbe quindi che, nel caso del neutrino, materia e antimateria coincidono. Questo fatto avrebbe profonde implicazioni nel fornire una spiegazione dell’asimmetria tra materia e antimateria, che sappiamo caratterizzare il nostro universo, e porterebbe altresì alla comprensione della natura e delle proprietà dei neutrini, particelle molto abbondanti nell’universo ma anche molto sfuggenti. Dotati di massa piccolissima e privi di carica elettrica, i neutrini sono, infatti, capaci di attraversare per lo più indisturbati la materia, rendendo difficile la loro osservazione.

La scoperta del decadimento senza emissione di neutrini proverebbe, dunque, che il neutrino e l’antineutrino sono in realtà la stessa particella, e che differiscono solo per una proprietà, chiamata elicità, che assume per essi valori speculari. L’elicità di una particella può essere vista come l’analogo, per una persona, dell’essere destrorso o sinistrorso. Il neutrino di Majorana, allo stesso modo di una persona ambidestra, può mostrare entrambi i modi di essere.

Il rivelatore CUORE è formato da 988 cristalli cubici di un composto naturale altamente purificato, il biossido di tellurio, alloggiati in 19 strutture verticali di rame, chiamate torri. Nonostante il segnale distintivo del doppio decadimento beta senza neutrini non sia stato ancora evidenziato, i nuovi dati di CUORE forniscono un limite due volte migliore rispetto a quello precedentemente pubblicato sulla frequenza di tale processo nei nuclei di tellurio-130, contenuto nei cristalli di CUORE. Questo risultato a sua volta può essere interpretato come un margine più stretto sul valore della massa del neutrino di Majorana, che sarebbe inferiore a un decimo di elettronvolt, ovvero circa 5 milioni di volte più leggera di quella di un elettrone.

I nuovi risultati di CUORE sono stati ottenuti con l’uso di un nuovo e sofisticato algoritmo, che permette di amplificare i segnali dei rivelatori e allo stesso tempo rigettare il fastidioso rumore di fondo. L’algoritmo migliora infatti l’identificazione di segnali spuri, causati da piccoli depositi di energia nei cristalli, indotti da altri processi già noti. Questo permette di avere un’evidenza più chiara del doppio decadimento beta senza neutrini. Inoltre, il nuovo algoritmo permetterà a CUORE, con la sua massa di quasi 1 tonnellata di rivelatori, di mettersi alla ricerca di particelle di materia oscura mai osservate finora, chiamate WIMP, ovvero Weakly Interacting Massive Particles (particelle massive che interagiscono debolmente), sfruttando la caratteristica periodicità del segnale atteso.

Gli ultimi risultati di CUORE rappresentano il più grande insieme di dati mai acquisiti da un esperimento di fisica delle particelle basato su rivelatori a stato solido, che usa cristalli invece dei più comuni liquidi, per la ricerca del doppio decadimento beta. È il primo esempio di rivelatore a stato solido caratterizzato da una massa di circa una tonnellata. I rivelatori a stato solido hanno la capacità di misurare accuratamente l’energia dei decadimenti; tuttavia è molto più difficile, dal punto di vista tecnico, realizzare un rivelatore a stato solido di massa elevata, rispetto a uno basato su un liquido.

L’insieme dei cristalli di CUORE è estremamente sensibile al lieve segnale energetico previsto per il doppio decadimento beta senza neutrini. Raffreddare i rivelatori a una temperatura leggermente inferiore a -273 °C rende l’intera schiera, che pesa circa 742 kg, sensibile all’impercettibile aumento di temperatura causato dall’interazione di una singola particella in ciascuno dei cristalli. Il tellurio-130 nei cristalli, l’elemento che può dare luogo al decadimento, vale 206 kg del peso totale di CUORE.

Alla fine del programma sperimentale, della durata di 5 anni, è prevista una variante di nuova generazione chiamata CUPID, che sostituirà i cristalli di tellurio con nuovi cristalli che con tutta probabilità saranno costituiti da un composto del molibdeno, in grado di emettere luce. Questi cristalli produrranno quindi sia segnali di calore (innalzamento di temperatura, come quelli di CUORE), sia di luce, e incrementeranno le prestazioni e la sensibilità dell’esperimento.

“Il decadimento teorizzato nei cristalli di CUORE è un processo di creazione di materia che ha implicazioni anche sulla comprensione del big bang, l’esplosione all’inizio del nostro universo, e potrebbe spiegare come la materia ha prevalso sull’antimateria nella sua evoluzione”, spiega Claudia Tomei, ricercatrice presso l’INFN di Roma e membro del CUORE Executive Board.

CUORE è supportato dall’Istituto Nazionale di Fisica Nucleare (INFN) in Italia, e dal DOE’s Office of Nuclear Physics, dalla National Science Foundation, e dall’Alfred P. Sloan Foundation negli Stati Uniti. La collaborazione include 150 scienziati da Italia, Cina, Francia, Spagna, Stati Uniti. Berkeley Lab coordina la partecipazione americana. La collaborazione CUORE include, oltre alla Istituzioni italiane: California Polytechnic State University, San Luis Obispo, Berkeley Lab, Lawrence Livermore National Laboratory, Massachusetts Institute of Technology, University of California Berkeley, University of California Los Angeles, University of South Carolina, Virginia Polytechnic Institute e State University, e Yale University negli Stati Uniti, CEA e CNRS/IN2P3 in Francia, e Shanghai Institute of Applied Physics e Shanghai Jiao Tong University in Cina.

 


Il Cern in un chip

Gli acceleratori di particelle sono di solito grandi strutture nazionali o internazionali. Poiché i fotoni sono in grado di fornire il loro impulso agli elettroni, ci sono anche sforzi per sviluppare acceleratori di particelle basati su laser. Sapra e colleghi.hanno sviluppato un acceleratore di particelle integrato usando metodi innovativi per ottimizzare l'interazione tra la luce e gli elettroni. Un impulso di 0,9 keV) può essere dato a un gruppo di elettroni a 80 keV lungo solo 30 micrometri di un canale appositamente progettato. Questi acceleratori laser dielettrici miniaturizzati potrebbero aprire la fisica delle particelle a una serie di discipline scientifiche, dalla chimica alla ricerca su nuovi materiali.

“Science”, 3 gennaio 2020


Super-Terra con acqua. Ma a 110 anni luce

Ha una massa pari a otto volte quella Terra, si trova nella zona abitabile della sua stella, ha un'atmosfera e in essa, grazie al telescopio spaziale Hubble, si è scoperto il vapore acqueo. Questo esopianeta è finora il miglior candidato per cercare forme di vita aliena. L'unico difetto è la distanza: 110 anni luce. Di per sé è una distanza relativamente piccola, ma è tecnologicamente proibitiva per inviare laggiù delle sonde e anche per una semplice comunicazone via radio: il tempo di andata e ritorno del segnale sarebbe di 220 anni.

La scoperta è in ogni caso molto interessante r importante. Il merito va a un team dell'University College London guidato, tra gli altri, da Giovanna Tinetti, già ben nota per i suoi lavori su esopianeti.

Una riflessione. Con il perfezionamento dei mezzi di osservazione e i nuovi satelliti dedicati, le scoperte di esopianeti simili alla Terra si moltiplicheranno. Presto ne conosceremo decine, poi centinaia e forse migliaia. Ma a questo punto diventeranno scoperte frustranti. Che farsene di tutte queste Terre forse abitabili e anche abitate, se non si può andare oltre una registrazione nei nostri cataloghi di esopianeti?


Alla foto del buco nero 3 milioni di dollari

Il team della collaborazione mondiale Event Horizon Telescope (Eth) ha vinto il Premio Breakthrough 2020 per la prima immagine di un buoco nero diffusa nella primavera scorsa. I 347 ricercatori e ricercatrici che hanno taggiunto questo risultato potranno spartirsi tre milioni di dollari. Ci sono anche due ricercatrici italiane: Elisabetta Liuzzo e Kazi Rygl, entrambe appartenenti all'Istituto nazionale di astrofisica (Inaf).

Giunto all'ottava edizione, il Breakthrough Prize, noto come “Oscar della scienza”, premia ogni anno le ricerche e le scoperte più importanti nelle scienze della vita, nella fisica e nella matematica. I soci finanziatori della Breakthrough Prize Foundation sono Sergey Brin, Priscilla Chan, Mark Zuckerberg, Ma Huateng, Yuri e Julia Milner, Anne Wojcicki. Considerato il premio scientifico più generoso al mondo, ogni Breakthrough Prize ammonta a 3 milioni di dollari. L'importo verrà equamente ripartito tra gli scienziati che hanno firmato i sei articoli scientifici pubblicati dalla collaborazione Eht il 10 aprile 2019. Saranno circa 8000 dollari a testa.

L’Event Horizon Telescope è un gruppo di otto radiotelescopi che opera su scala planetaria, nato grazie a una collaborazione internazionale e progettato con lo scopo di catturare le immagini di un buco nero, o meglio dell'"orizzonte degli eventi" entro il quale esso è confinato.

 


A Sergio Ferrara, il Premio Breaktrought

Il fisico italiano Sergio Ferrara (Cern e Infn), l’americano Daniel Z. Freedman (Mit e Stanford University) e l’olandese Peter van Nieuwenhuizen (Stony Brook University), fondatori della teoria della supergravità, sono i vincitori del Premio Breaktrought 2019, dotato di tre milioni di dollari. La cerimonia di consegna è in programma negli Stati Uniti il 3 novembre, presso lo storico Hangar 1 della Nasa, vicino a Mountain View.

Formulata nel 1976, la teoria della supergravità è riuscita a integrare con successo la descrizione della forza di gravità con quella delle particelle fondamentali: «La nostra teoria connette la forza di gravità con le forze elettromagnetiche usando nuove simmetrie, chiamate quantistiche», ha spiegato Ferrara. «La supergravità unifica le forze in un’unica forza, estendendo la relatività generale, in linea con il grande sogno della fisica contemporanea».

La supersimmetria assegna una particella ‘partner’ a ognuna delle particelle finora note. Resta aperto il problema di scoprire una particella che confermi in modo definitivo la teoria: potrebbe riuscirci il più grande acceleratore del mondo, il Large Hadron Collider (Lhc) del Cern, ormai vicino al massimo della sua potenza. «Speriamo sia sufficiente, altrimenti», ha detto il fisico, «dovremo aspettare 50 anni, quando si saranno costruiti acceleratori più potenti».

Le prime particelle che potrebbero essere scoperte sono i gluini, simmetrici ai gluoni che costituiscono la ‘colla’ che nel nucleo tiene insieme protoni e neutroni. La particella più importante è però il gravitino. «È la particella più vicina prevista dalla supersimmetria ed è il partner del gravitone, che costituisce le onde gravitazionali. Poiché il gravitino è cieco alle interazioni elettromagnetiche deboli e forti, può essere considerato il primo candidato della materia oscura».

       Il Premio Breaktrought  è finanziato dall’imprenditore russo Yuri Milner con Sergey Brin    (Google), Mark Zuckerberg (Facebook) e Jack Ma (Alibaba).


Antimateria al test della doppia fenditura

Il dualismo onda-particella è stato verificato anche sull'antimateria, e precisamente sul positrone, l'antiparticella dell'elettrrone. E' l'ultimo di una serie di esperimenti che stanno controllando la sull'amtimateria la validità delle leggi che sappiamo regolare la materia ordinaria. La possibilità di produrre quanità apprezzabili anche di antiatomi, per esempio, è stata sfruttata per osservare la legge di Newton su minuscoli "grumi" di antimateria, e ora sappiamo che la gravitazione è davvero "universale", nel senso che agisce nell'identico modo anche nell'anti-mondo.

Nel caso del positrone l'esperimento riprodotto è quello della doppia fenditura, un classico fondamentale della meccanica quantistica che fu realizzato per la prima volta con fotoni da Thomas Young su ispirazione di Albert Einstein e replicato per singoli elettroni da Gian Franco Missiroli, Pier Giorgio Merli e Giulio Pozzi nel 1976. Ora ricercatori del Politecnico di Milano, dell’INFN Istituto Nazionale di Fisica Nucleare, dell’Università di Milano e del Centro Albert Einstein (AEC) per la Fisica Fondamentale e Laboratorio di Fisica delle Alte Energie (LHEP) dell’Università di Berna, sono riusciti nella difficile impresa di realizzare l’esperimento
impiegando singoli positroni.

Nell’esperimento, che si basa sulla tecnica dell’interferometria, ‘le onde’ di
antimateria, generate da un singolo positrone, quando interferiscono costruttivamente
collassano e si localizzano in un punto, comportandosi come ‘una singola particella’,
e vengono così rivelate, dimostrando per la prima in modo diretto che il dualismo
onda-particella vale anche per l’antimateria. Lo studio è stato pubblicato il 3 maggio,
su Science Advances.

Nell'esperimento della doppia fenditura, un fascio di particelle viene sparato
da una sorgente verso un rivelatore. Lungo il tragitto sono poste delle grate con
due fenditure attraverso le quali passano le particelle. Se le particelle si
comportassero esclusivamente come particelle, viaggerebbero in linea retta e
produrrebbero sul rivelatore un disegno corrispondente alle fenditure. Ma se le
particelle hanno una natura ondulatoria, sul rivelatore appare una figura a
strisce, con diversi massimi e minimi, che non corrisponde alle fenditure. La nuova
figura è generata dall’interferenza delle onde che passano attraverso le fenditure.


UN BALZO NELL'ASTRONOMIA GAMMA

A trent’anni esatti dalla prima osservazione della Nebulosa del Granchio che ha aperto l’era dell’astronomia nei raggi gamma di altissima energia con la tecnica Cherenkov, è stato raggiunto un altro importante risultato in questo campo. Il telescopio Cherenkov Astri-Horn, basato sull’innovativa configurazione ottica aplanatica a doppio specchio Schwarzschild-Couder e dotato di una camera altrettanto innovativa, ha osservato per la prima volta la Nebulosa del Granchio alle energie dette “del TeV” (1 TeV = mille miliardi di elettronvolt, cioè mille miliardi di volte l’energia della luce visibile) dimostrando la fattibilità e le potenzialità della nuova tecnologia.

«Il risultato ottenuto da Astri-Horn rappresenta un traguardo importante nell’ambito delle tecnologie per l’astronomia in raggi gamma da Terra. Dimostra che la configurazione a doppio specchio proposta originariamente dal grande astrofisico tedesco, Karl Schwarzschild, funziona in modo egregio e apre nuove frontiere osservative nell’ambito dell’astronomia in raggi gamma», dice Giovanni Pareschi, astronomo dell’Inaf-Milano e Principal Investigator del progetto Astri. «Con i telescopi a due specchi è infatti possibile ottenere un campo visivo molto ampio pur mantenendo una configurazione molto compatta. Ciò permette l’uso di sensori innovativi a pixel piccolo e, in futuro, di osservare i raggi gamma di energia più alta, fino a centinaia di TeV. L’utilizzo scientifico di telescopi a grande campo è di importanza fondamentale per l’astronomia gamma».

Nel 1989, la prima osservazione della Nebulosa del Granchio alle energie del TeV fu ottenuta con il telescopio americano a singolo specchio Whipple. Questa scoperta segnò l’inizio dell’astronomia TeV che, con la sua rapida crescita, ha portato alla rilevazione di circa 200 sorgenti di raggi gamma con strumenti a terra come Hess, Magic e Veritas, aprendo la strada alla prossima generazione: il Cherenkov Telescope Array (Cta).

Poiché i raggi gamma non raggiungono mai la superficie terrestre, questi strumenti utilizzano la rivelazione della cosiddetta luce Cherenkov che si genera nell’interazione dei raggi gamma con l’atmosfera. I raggi gamma di alta energia entrando in contatto con l’atmosfera terrestre producono cascate di particelle subatomiche – queste particelle altamente energetiche possono viaggiare più velocemente della velocità della luce nell’aria, dando luogo a un debole (e brevissimo, dell’ordine del miliardesimo di secondo) lampo di luce bluastra. I telescopi Cherenkov, sin dall’inizio, sono stati costruiti per catturare questa luce e quindi, indirettamente, rilevare i segnali in raggi gamma emessi dalle sorgenti celesti. Per questo scopo sono stati adottati finora configurazioni ottiche semplificate che prevedono un solo specchio in cui la luce viene riflessa per essere catturata direttamente dalla camera di rilevazione.

L’Istituto Nazionale di Astrofisica (Inaf) con il sostegno del Ministero dell’Istruzione, dell’Università e della Ricerca (Miur) sta conducendo il progetto Astri finalizzato alla progettazione, implementazione e all’uso astronomico di un prototipo di telescopio completo proposto per i Telescopi con specchio principale di 4 metri per il futuro grande Osservatorio internazionale per raggi gamma Ctao (Cherenkov Telescope Array Observatory), il cui centro direzionale è a Bologna, nella sede dell’Inaf.

Questo telescopio Cherenkov è denominato Astri-Horn, in onore di Guido Horn d’Arturo, astronomo italiano che fu direttore dell’Osservatorio di Bologna, che per primo propose nel secolo scorso la tecnologia degli specchi a tasselli in campo astronomico. Il prototipo Astri-Horn, situato sull’Etna presso la stazione di osservazione Inaf “Mario Girolamo Fracastoro”, è stato sviluppato come un progetto completo, basato in larga parte su tecnologie sviluppate da INAF e industrie nazionali. Il telescopio adotta per la prima volta una configurazione ottica detta di Schwarzschild-Couder a doppio specchio, che permette di ottenere un campo di vista molto grande, di circa 10 gradi di diametro. I due specchi sono posizionati in asse, così da poter riflettere e focalizzare la luce e “fotografare” in modo omogeneo, senza distorsioni, una regione di cielo molto estesa, al contrario di altri telescopi che sono necessariamente limitati nel loro campo di vista. Il telescopio ASTRI è inoltre dotato di una innovativa camera per raccogliere le immagini, che fa uso di nuovi sensori al silicio ed è dotata di un’elettronica di lettura molto veloce in grado di registrare i brevissimi lampi di luce. Inoltre INAF ha sviluppato l’intera catena di archiviazione e analisi dei dati scientifici che, partendo dai segnali elettronici rilevati, permette di arrivare alle immagini astronomiche in raggi gamma.

Le osservazioni della Nebulosa del Granchio sono state condotte tra il dicembre 2018 e il gennaio 2019, durante la fase di verifica del telescopio Astri-Horn, per un tempo di osservazione totale di 29 ore. La camera di rivelazione era tuttavia ancora in fase di verifica e la sua funzionalità non ancora ai massimi livelli. Inoltre, a causa delle recenti eruzioni dell’Etna, l’efficienza della riflessione degli specchi era parzialmente ridotta. Nonostante queste limitazioni, le osservazioni hanno consentito di osservare la Nebulosa del Granchio con una significatività statistica molto alta ad una soglia di energia di circa 3,5 TeV, dimostrando definitivamente l’efficacia dei telescopi a due specchi e aprendo una nuova era per l’astronomia in raggi gamma con tecnica Cherenkov.

(dal comunicato INAF, Istituto Nazionale di Astrofisica, 7 maggio 2019)


Vulcano Stromboli: prima "muografia"

Per la prima volta si è ottenuta una muografia del vulcano Stromboli, frutto della collaborazione di un gruppo di ricercatori dell’Istituto Nazionale di Fisica Nucleare (INFN) e dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV) in collaborazione con Istituti di ricerca giapponesi.

La muografia, o radiografia muonica, è una tecnica che utilizza i muoni, particelle che vengono prodotte quando i raggi cosmici provenienti dallo spazio interagiscono con l’atmosfera terrestre, per ricostruire un’immagine della struttura interna di un oggetto.

I risultati della radiografia muonica del vulcano Stromboli, pubblicati il 30 aprile 2019 sulla rivista internazionale Scientific Reports di Nature, hanno rivelato la presenza di una zona a bassa densità nell’area sommitale del vulcano. Questa zona corrisponde a una struttura di collasso formatasi nell’area dei crateri durante l’eruzione effusiva del 2007 e successivamente riempita da materiale incoerente prodotto dall’attività esplosiva stromboliana. Questa struttura, che ha condizionato lo stile eruttivo del vulcano dopo l’eruzione del 2007, ha una densità di oltre il 30% inferiore rispetto al resto del substrato roccioso.

“Il risultato ottenuto servirà a comprendere meglio i processi eruttivi stromboliani e la dinamica del versante della Sciara del Fuoco, che nel passato è stato più volte interessato da frane che hanno causato tsunami”, spiega Flora Giudicepietro, dell’Osservatorio Vesuviano di Napoli (INGV), che ha contribuito alla ricerca.

La tecnica della radiografia muonica si basa su un principio simile a quello delle radiografie che utilizzano i raggi X, ma rispetto a questa presenta il vantaggio di poter essere impiegata per investigare oggetti molto più grandi, come i vulcani, appunto, perché i muoni hanno capacità di penetrazione nella materia molto maggiore rispetto ai raggi X.

“Il rivelatore di muoni che abbiamo progettato si basa sulle tecnologie sviluppate per l’esperimento OPERA, che ha studiato ai Laboratori Nazionali del Gran Sasso dell’INFN le proprietà del fascio di neutrini proveniente dal CERN”, spiega Giovanni De Lellis della Sezione INFN di Napoli e dell’Università Federico II, a capo dell’esperimento OPERA e tra gli ideatori del progetto. “La prima sfida che abbiamo dovuto affrontare è stata la necessità di ideare un rivelatore compatto con alta risoluzione angolare, che non richiedesse alimentazione elettrica, che si potesse trasportare sulle pendici di un vulcano e resistesse alle intemperie”.

Il rivelatore utilizzato è costituito da 320 film di emulsioni nucleari, speciali lastre fotografiche che consentono di “fotografare” con grande precisione il passaggio delle particelle che le attraversano. La superficie del rivelatore utilizzata è di circa un metro quadrato. Il rivelatore è stato posizionato nel sito Le Roccette, a 640 metri di quota, e ha raccolto per circa 5 mesi le tracce dei muoni che hanno attraversato il vulcano.

“I muoni prodotti nell’interazione dei raggi cosmici con l’atmosfera penetrano nella roccia vulcanica e possono attraversarla da parte a parte. Tuttavia, a seconda della densità e dello spessore della roccia, una parte di questi viene assorbita”, spiega Valeri Tioukov dell’INFN di Napoli, che ha coordinato il progetto. “Dal numero di muoni che arriva sul nostro rivelatore dalle diverse direzioni possiamo quindi capire la densità del materiale che hanno attraversato.” Radiografie periodiche della sommità del vulcano potranno essere usate per monitorare l’evoluzione della sua struttura interna.

(dal comunicato stampa INGV e INFN, Istituto Nazionale di Geofisica e Vulcanologia e Istituto Nazionale di Fisica Nucleare)


Rivivono neuroni morti

"Nature" pubblica uno studio che documenta la "resurrezione" di neuroni in cervelli di 32 maiali macellati (18 aprile 2019). La "seconda vita" dei neuroni si è prolungata per 36 ore. I cervelli sono stati connessi a un sistema chiamato BrainEx che fornisce ai campioni di tessuto cerebrale sostanze nutrienti, ossigeno in sangue sintetico e un conservante. La ricerca si è svolta all'Università di Yale (Usa).

"Il risultato ottenuto non significa che abbiamo rianimato il cervello - spiega Zvonimir Vrselia, coautore dell'articolo -. In nessun momento abbiamo osservato una attività elettrica associabile a percezione. Clinicamente non si può parlare di un cervello vivente ma solo di un cervello cellulare attivo".

In ogni caso l'obiettivo dei ricercatori di Yale non è far rianimare organismi dopo la morte cerebrale ma "migliorare le conoscenze sul cervello studiandone le connessioni in un modello tridimensionale grande e complicato". Questo lavoro potrebbe portare a cure migliori per pazienti copliti da emorragia cerebrale.

 

 


Nuovo stato della materia  

16 aprile 2019

Un team di ricercatori del Cnr e dell’Università di Firenze ha osservato nel laboratorio dell’Istituto nazionale di ottica di Pisa (Cnr-Ino) un nuovo stato della materia: il supersolido. Esso ha la struttura di un solido, le proprietà di un superfluido e si comporta secondo le leggi della meccanica quantistica. Alla ricerca, pubblicata su Physical Review Letters, hanno collaborato anche ricercatori dell’Università di Hannover

Questo nuovo stato della materia, che unisce le caratteristiche di un solido – particelle disposte in una struttura fissa, periodica - con quelle di un superfluido - assenza di viscosità e di attrito - presenta proprietà nuove e ancora largamente inesplorate. I ricercatori dell’Istituto nazionale di ottica del Consiglio nazionale delle ricerche (Cnr-Ino), del Dipartimento di fisica e astronomia dell’Università di Firenze e del Laboratorio europeo di spettroscopia non lineare (Lens), insieme al supporto teorico dell’Università di Hannover, lo hanno studiato in un gas di atomi magnetici ultrafreddi, realizzato in laboratorio con atomi di disprosio portati a temperature vicino allo zero assoluto (-273,15 °C). Lo studio è stato pubblicato su Physical Review Letters (“Observation of a dipolar quantum gas with metastable supersolid properties” doi: 10.1103/PhysRevLett.122.130405).

“I ricercatori fin dagli anni ’60 hanno provato a realizzare questo stato della materia, previsto dalle leggi della meccanica quantistica – spiega Giovanni Modugno, docente di Fisica della materia presso l’Università di Firenze –; dopo aver provato con l’elio, i tentativi si sono indirizzati verso i condensati di Bose-Einstein, insiemi di bosoni ultrafreddi in cui le particelle sono in uno stato superfluido. E proprio attraverso un condensato di Bose-Einstein, realizzato con un particolare tipo di atomi molto magnetici, oggi siamo riusciti ad arrivare all’osservazione di un supersolido che si basa solo sull’interazione tra gli atomi”. Gli atomi si comportano infatti come potenti magneti, interagendo fra loro in modo da formare una struttura periodica; gli atomi, tuttavia, non sono bloccati e possono muoversi liberamente attraverso il sistema, come in un superfluido. “L’eccezionalità è che i condensati di Bose-Einstein hanno poco a che vedere con i solidi. Questa è la prima volta che si realizza un solido con particelle bosoniche identiche fra loro e perciò indistinguibili, che restano libere di muoversi, proprietà tipiche dei superfluidi. Abbiamo fatto la scoperta sperimentale in un nuovo laboratorio presso il Cnr-Ino di Pisa, grazie alle idee innovative ed al lavoro creativo del team di cui fanno parte sia ricercatori esperti che giovani, tra cui Eleonora Lucioni e Luca Tanzi. Che la nostra scoperta sia interessante e apra una nuova direzione per comprendere le proprietà dei materiali quantistici ce lo rivela il forte interesse della comunità scientifica, con i principali laboratori esteri che si sono lanciati immediatamente a riprodurre il nostro sistema per esplorarne le proprietà, come ha riportato un recente articolo su Physics. È così partita la competizione per scoprire le proprietà di questo nuovo stato della materia, nella quale spero che avremo il massimo supporto dalle istituzioni di ricerca italiane”.

“Questo difficile esperimento e questo bel risultato sono il frutto di una stretta collaborazione, tra il gruppo di Firenze e il nostro gruppo di Pisa – dicono Carlo Gabbanini e Andrea Fioretti del Cnr-Ino di Pisa – con competenze complementari che ci permettono di lavorare in modo innovativo.  Grazie al supporto del Cnr-Ino, dove questo progetto ha trovato competenze di livello internazionale sulla fisica atomica e sui laser, siamo riusciti a creare un ambiente di ricerca stimolante che sta attirando giovani da tutta Italia. Ora contiamo su un supporto importante da parte dei nostri referenti istituzionali per potenziare una ricerca di punta in un clima internazionale estremamente competitivo”. (comunicato CNR)


Telescopio FlyEye a Isnello

Importante passo dell'Esa, Agenzia Spaziale Europea, per realizzare la rete di telescopi “Flyeye” destinata al rilevamento tempestivo di asteroidi pericolosi: firmato l'accordo con l’Agenzia Spaziale Italiana (Asi) che porterà il primo telescopio Flyeye ai 1.865 metri del Monte Mufara, in Sicilia, vicino a Isnello.

Il rivoluzionario disegno ottico Flyeye ricorda l’occhio composto di una mosca: utilizza telecamere e ottiche multiple, suddividendo una sezione del cielo in 16 immagini più piccole, per espandere il campo visivo del telescopio. Sarà il primo di una rete di quattro telescopi sparsi nel mondo, che insieme avranno la capacità di eseguire sondaggi notturni dell’intero cielo, cercando automaticamente oggetti vicini alla Terra o Neo (Near-Earth Objects) – rocce spaziali potenzialmente pericolose che potrebbero colpire il nostro pianeta.

Con questo accordo, l’Asi diventa responsabile per lo sviluppo dell’infrastruttura generale per il sito – incluse le vie di accesso e l’elettricità, acqua e collegamenti dati – mentre Esa fornirà il telescopio stesso e preparerà l’edificio, inclusi la cupola e le strutture associate.

All’inizio del 2016 l’Esa ha assegnato un contratto per lo sviluppo del telescopio Flyeye a un consorzio guidato da Ohb Italia di Milano, con la partecipazione di industrie di 7 nazioni europee.

Purtroppo questo rimarrà l'ultimo buon servizio reso da Roberto Battiston in qualità di presidente dell'Agenzia Spaziale Italiana prima della sua destituzione ad opera del governo Di Maio-Salvini-Conte.Gli subentrerà un oscuro generale in pensione, gradito alla Lega. 


Caccia al fotone oscuro

 

Nei Laboratori Nazionali di Frascati (LNF) dell’Istituto nazionale di fisica nucleare inizia l’esperimento PADME dedicato alla ricerca della materia oscura e, in particolare, del "fotone oscuro", una ipotetica particella prevista da alcuni modelli teorici che si basano sull’ipotesi che esista una quinta forza, del tutto estranea alle quattro forze fondamentali che conosciamo (gravitazionale, elettromagnetica, nucleare forte e nucleare debole) e in grado di connettere la materia oscura con il nostro mondo.

Un sottilissimo bersaglio di diamante per catturare il fotone oscuro scovandolo tra 1 milione di collisioni di particelle al secondo. È questo il cuore dell’esperimento PADME (Positron Annihilation into Dark Matter Experiment) che studierà le interazioni prodotte da positroni accelerati all’energia di 550 MeV dall’acceleratore lineare (LINAC), dei Laboratori Nazionali di Frascati dell’Istituto Nazionale di Fisica Nucleare, alla ricerca della materia oscura. Inaugurato il 4 ottobre, con una cerimonia per festeggiare il passaggio dalla fase di test (commissioning) a quella di presa dati, l’esperimento PADME resterà in funzione per alcuni mesi, fino alla conclusione della prima fase di presa dati.

L’esperimento potrebbe svelare per la prima volta l’esistenza di una “nuova forza” a cui sarebbe associata una particella chiamata fotone oscuro, grazie a un apparato di misura piccolo, ma estremamente preciso, in grado di osservare la produzione del fotone oscuro in collisioni di antielettroni con gli elettroni del bersaglio.

PADME si basa su un’ipotesi avanzata da alcuni modelli teorici che prevedono l’esistenza di una quinta forza in grado di connettere la materia oscura con il nostro mondo e che andrebbe ad aggiungersi alle quattro forze fondamentali che conosciamo ovvero, gravitazionale, elettromagnetica, nucleare forte e nucleare debole. A questa nuova quinta forza, come per le altre quattro, sarebbe associata una particella messaggera, in questo caso un fotone “pesante”, dotato cioè di una piccola massa (al contrario del fotone ordinario che non ne possiede), che i fisici chiamano “fotone oscuro”.

“PADME si servirà per la prima volta di collisioni di positroni su un bersaglio fisso con lo scopo di esplorare il contenuto di quella parte nascosta del cosmo che chiamiamo materia oscura” sottolinea Mauro Raggi, spokesperson dell’esperimento, ricercatore INFN e Sapienza Università di Roma. “La possibilità che esistano nuove forze e nuove particelle sconosciute è sicuramente una frontiera molto affascinante e il team di PADME è molto orgoglioso di partecipare a questa impresa” chiude Raggi. “PADME sfrutta un’infrastruttura di ricerca chiamata Beam Test Facility (BTF) che estrae particelle accelerate nel LINAC (acceleratore lineare) e che è stata impiegata, negli ultimi 15 anni, dalla comunità dei fisici sperimentali per lo sviluppo di nuove tecnologie di rivelatori” aggiunge Paolo Valente, co-spokesperson dell’esperimento, ricercatore INFN e Sapienza Università di Roma. “In futuro, inoltre, sarà possibile usare la BTF anche per applicazioni industriali, per esempio nel campo dello studio dei danni da irraggiamento” conclude Valente. “PADME è la migliore dimostrazione che anche Laboratori di medie dimensioni, come Frascati, possono avere un programma di fisica fondamentale di alto livello.

PADME è una collaborazione internazionale che coinvolge ricercatori dell’istituto MTA Atomki di Debrecen, Ungheria, dove già sono stati svolti esperimenti sul fotone oscuro e dell’Università di Sofia, in Bulgaria che si è occupata dei rivelatori a barre scintillanti. Sono anche membri della collaborazione Cornell University, Iowa University e William and Mary College, degli Stati Uniti. La sensibilità dell’esperimento potrebbe essere molto migliorata utilizzando un fascio di particelle di più alta energia, per esempio utilizzando i positroni accelerati ed estratti da un sincrotrone. Questa proposta viene studiata in collaborazione con i colleghi della Cornell University, anche grazie a un programma di scambio finanziato dal Ministero degli Esteri e della Cooperazione Internazionale. (Eleonora Cossi)


Trovata la materia oscura ordinaria!

~~Grande notizia su “Nature” del 20 giugno: trovata la materia ordinaria mancante. Vent’anni di inseguimento hanno finalmente intrappolato i barioni che sapevamo esserci dai calcoli dei fisici e dei cosmologi ma che ci sfuggivano. E’ una prima vittoria, ora vengono le sfide ancora più difficili: la materia oscura e poi l’energia oscura. Siamo al 5 per cento, avanti con il restante 95 per cento dell’universo. La scoperta è frutto dell’osservazione più lunga mai realizzata di un singolo quasar da parte del telescopio XMM-Newton dell’ESA. Il team internazionale che ha condotto la ricerca è guidato da Fabrizio Nicastro dell’INAF di Roma. Questo il comunicato dell’Istituto nazionale di astrofisica: “Sappiamo ormai da decenni che il 30-40 percento dei barioni che ci aspettiamo di trovare nell’Universo locale sfuggono alle osservazioni. I barioni sono ciò che consideriamo materia ordinaria, vale a dire stelle, pianeti, gas, polveri e anche noi stessi. Teoria e osservaziooni indirette di questa materia durante le prime fasi di vita dell’Universo, sono in grado di fornire sia stime di quantità, facendo emergere la considerevole porzione di materia mancante, sia una possibile soluzione a questo rompicapo. Stando ai modelli, infatti, i barioni “sfugenti” si troverebbero lungo filamenti di gas che collegano tra loro le galassie. Tali filamenti sono formati principalmente da idrogeno ionizzato, e quindi sono molto deboli e difficili da osservare. Grazie all’avvento, circa 20 anni fa, degli osservatori spaziali ai raggi X in grado di effettuare misure spettroscopiche ad alta risoluzione, gli astronomi hanno potuto iniziare ad indagare questo mistero. Nonostante i numerosi sforzi, fino ad ora erano state realizzate rilevazioni non conclusive, con bassa significatività. Per ottenere qualche indizio in più su questa grossa porzione di materia mancante, i ricercatori hanno puntato il telescopio XMM-Newton dell’ESA sul quasar chiamato 1ES 1553+113. Grazie alle osservazioni pianificate dal team tra il 2015 e il 2017, e a una serie di puntamenti precedenti, disponibili in archivio, il set di dati è arrivato a coprire in tutto tre settimane di osservazione continua: l’esposizione più lunga in assoluto su una singola sorgente di quel tipo. L’incredibile mole di informazioni spettroscopiche raccolta si è trasformata in una “radiografia” dettagliata del materiale che si trova tra noi e il quasar. Questo ha permesso ai ricercatori di scoprire una serie di deboli righe di assorbimento dovute alla presenza di enormi quantità di barioni nascosti nel materiale caldo e gassoso che si estende anche per milioni di anni luce tra una galassia e l’altra. «Le nostre osservazioni, giunte dopo diciotto anni di incessanti tentativi da parte di diversi gruppi di ricerca nel mondo, hanno finalmente individuato la materia ordinaria mancante dell'Universo», dice Fabrizio Nicastro, ricercatore dell’INAF e primo autore dell’articolo. «La materia che abbiamo trovato è esattamente nella posizione e nella quantità predette dalla teoria, quindi possiamo dire di aver risolto uno dei più grandi misteri dell’astrofisica moderna: quella dei barioni mancanti». Lo studio è stato pubblicato con il titolo Observations of the missing baryons in the warm–hot intergalactic medium di F. Nicastro, J. Kaastra, Y. Krongold, S. Borgani, E. Branchini, R. Cen, M. Dadina, C. W. Danforth, M. elvis, F. Fiore, A. Gupta, S. Mathur, D. Mayya, F. Paerels, L. Piro, D. Rosa-Gonzalez, J. Schaye, J. M. Shull, J. Torres-Zafra, N. Wijers e L. Zappacosta.


Stelle e quasar di GAIA

Un miliardo e 700 milioni di stelle della Via Lattea, la nostra galassia, con informazioni di posizione, velocità, distanza, velocità e direzione di spostamento, proprietà fisiche. E poi 14 mila nuovi asteroidi del sistema solare e mezzo milione di quasar - galassie lontanissime la cui enorme luminosità proviene dall’energia emessa dal loro buco nero centrale supermassiccio. Queste ultime rappresentano la prima realizzazione nella banda della luce visibile del sistema di riferimento celeste per la navigazione spazio-temporale.

Una enorme banca di dati raccolti in 22 mesi dal satellite astrometrico europeo Gaia. Contribuiscono alla missione l’Istituto Nazionale di Astrofisica (Inaf) e l’Agenzia Spaziale Italiana che partecipano al Data Processing and Analysis Consortium (DPAC). L’INAF vede coinvolte le sue strutture di Bologna, Catania, Firenze, Napoli, Padova, Roma, Teramo e Torino (dove risiede il management nazionale); l’ASI partecipa con lo SSDC (Space Science Data Center) e con il DPCT, il centro di processamento dati a Torino, l’unico in Italia dei sei complessivi sul territorio europeo, interamente dedicato alla validazione astrometrica e contenente tutti i dati di missione per un totale di 1,5 petabyte, cioè 1,5 milioni di gigabyte.


Orologi atomici, nuovo record

Battuto il record di precisione nella misura del tempo: un orologio a stronzio ha raggiunto la precisione relativa di 2,5 x 10 alla meno 19. Ciò equivale all’errore di un decimo di secondo sull’età stimata dell’universo, cioè in circa 14 miliardi di anni.

Il funzionamento si basa migliaia di atomi di stronzio intrappolati in un lattice ottico tridimensionale. A capo del team G. Edward Marti, Università del Colorado, Usa-

L’articolo su “Physical Review Letters” del 5 marzo 2018.

* G. Edward Marti (JILA, edward.marti@jila.colorado.eduet al., “Imaging optical frequencies with 100 μHz precision and 1.1 μm resolution,” Physical Review Letters

 


Polveri e obesità, due killer

L’inquinamento dell’aria dovuto a particolato fine (PM2,5, cioè particelle di polvere con diametro inferiore a 2,5 millesimi di millimetro) ad ogni aumento complessivo di 10 milligrammi per metro cubo risulta associato a un aumento del 7,3 per cento di tutte le cause di morte.

Questo dato risulta da uno studio su 61 milioni di cittadini americani pubblicato dal “New England Journal of Medicine”. Il lavoro, che ha indagato il rapporto tra inquinamento e mortalità ed è frutto di una elaborazione di “big data” compiuta nel 2017, dovrebbe indurre a drastici provvedimenti per la tutela dell’ambiente e della salute, in controtendenza con la nuova espansione del carbone come fonte di energia. Su scala planetaria da qualche anno il carbone è tornato al primo posto tra le materie prime energetiche, seguito dal petrolio e dal gas naturale (metano). Cina, Russia, Stati Uniti e India sono tra i maggiori utilizzatori.

Un altro studio “big data” ha esaminato l’aumento dell’obesità in 68,5 milioni di persone di 195 paesi dal 1980 al 2015: insieme con l’inquinamento, la diffusione epidemica dell’obesità si profila come il secondo più grave attacco alla salute collettiva. Entrambi i fenomeni – osserva il direttore della rivista Jeffery M. Drazen - sono contrastabili ma ciò richiede precise decisioni politiche.

 


STELLE CON NOMI ETNICI

Le innumerevoli scoperte di esopianeti e oggetti esotici impongono all’apposita commissione della International Union (IAU) un continuo aggiornamento della nomenclatura celeste. Si cerca anche in questo campo di fare scelte politicamente corrette. I nomi delle stelle più luminose provengono quasi tutti dalla cultura classica greco-latina e dalla cultura araba. Per compensare questa distorsione storica che collega il cielo alla tradizione del Vecchio Mondo, nel dicembre 2017 l’Unione Astronomica Internazionale ha introdotto 86 nuovi nomi “etnici” in gran parte tratti dalle culture africane, maya, cinesi, copta, polinesiana e indù. “Questi nomi – ha dichiarato Eric Mamajek, coordinatore del gruppo responsabile dei battesimi – ci aiutano a garantire che l’eredità immateriale lasciata nei secoli dagli osservatori del cielo provenga da tutto il mondo, in modo che possa essere usata anche nell’era dei sistemi planetari che ruotano intorno a stelle diverse dal nostro Sole.”

Nella nuova toponomastica astronomica non ci sono stelle particolarmente brillanti perché queste hanno già tutte un nome. La stella più luminosa del nuovo firmamento etnico è Delta Velorum, ribattezza Alsephina, nome che si rifà ancora alla lingua araba e significa “nave”. E’ una binaria ad eclisse di magnitudine 2, lontana 80 anni luce. Era nota anche con il nome cinese Koo She. Sigma del Cane Maggiore si chiama ora Unurgunite, nome preso in prestito dagli aborigeni australiani Booriong; è di magnitudine 3,5 e si trova a 1220 anni luce. Mu1 e Mu2, che formano un sistema binario nella costellazione dello Scorpione, sono diventate Xamidimura, “occhi di leone” nella cultura del popolo africano Khoikhoi, e Pipirima, dal nome di due gemelli appartenenti alla mitologia di Thaiti.

 


Messaggi iper-criptati

Per la prima volta sono si è riusciti a trasmettere immagini fisse e video in streaming da un continente all’altro via satellite criptando i messaggi con una tecnologia quantistica. Lo ha annunciato il 19 gennaio 2018 un articolo su “Physical Review Letters”. Il satellite utilizzato è il cinese “Micius” lanciato nel 2016, la distanza superata 7600 chilometri, la durata della trasmissione è stata di 75 minuti, a dimostrazione della stabilità del sistema.

La tecnica di criptazione quantistica su lunga distanza era già stata provata in fibra ottica; in aria rimanevano instabilità dovute all’attenuazione del segnale. Il collegamento è avvenuto tra l’Università cinese di Hefei e un laboratorio dell’Università di Vienna a Graz. La criptazione quantistica è una applicazione dell’entanglement, l’intreccio di stati di particelle. In questo caso i fotoni. Questo sistema è in pratica inattaccabile: resiste a qualsiasi tentativo di decifrazione.

Contatto scientifico:

Prof. Jian-Wei Pan

University of Science and Technology of China, Hefei 230026, China

pan@ustc.edu.cn

+86-5513606493

 


Quanto cloro nel cervello?

Raggiunto un risultato che la neurobiologia inseguiva da tempo: un metodo non invasivo per misurare il cloro nelle cellule cerebrali in vivo, fondamentale poiché deficit cognitivi e malattie come epilessia e autismo sono potenzialmente legati a difetti nella regolazione del cloro.

Hanno realizzato il nuovo sensore per misurare il valore del cloro nelle cellule nervose l'Istituto Nanoscienze del Consiglio nazionale delle ricerche (Nano-Cnr) e la Scuola Normale Superiore, in collaborazione con Istituto Italiano di Tecnologia e Università di Trento. Il lavoro, realizzato con il supporto di un finanziamento Telethon, è stato pubblicato sulla rivista "Proceedings of the National Academy of Sciences" (Pnas).

“La concentrazione del cloro intracellulare è un regolatore cruciale dell’equilibrio tra neuroni eccitatori, che aumentano l'attività cerebrale, e neuroni inibitori, che la riducono. L’equilibrio tra le due componenti è fondamentale per il funzionamento cerebrale", spiega Gian Michele Ratto di Nano-Cnr. "Quando il livello di cloro è troppo alto i meccanismi di inibizione funzionano in misura ridotta e il cervello entra in uno stato patologico. Studi recenti suggeriscono che una regolazione difettosa del cloro giochi un ruolo nell'insorgenza di patologie come epilessia, sindrome di Down e autismo”.

“Il nuovo metodo combina la fluorescenza di due proteine, usate come marcatori luminosi del cloro con la microscopia a due fotoni in vivo, una tecnica di imaging di cui il team di Nano-Cnr è pioniere in Italia. Il risultato è una vera e propria mappa della concentrazione di cloro in un cervello vivente che permette di distinguere condizioni fisiologiche e patologiche", dice Ratto. “Finora era possibile effettuare misure solo in culture cellulari o sezioni di cervello, sistemi semplificati che non hanno le caratteristiche fisiologiche di un cervello nella sua integrità".

Si apre così una nuova finestra sul funzionamento del cervello. "Le misure effettuate in vivo hanno dato intanto la prima dimostrazione diretta che la concentrazione di cloro si modifica durante le fasi iniziali dello sviluppo cerebrale. Il prossimo passo sarà studiare le variazioni del cloro associate con una varietà di condizioni patologiche, compresa l'epilessia, e in modelli genetici di malattie dello spettro autistico".


Nanomacchina a batteri

Molti batteri, come Escherichia coli, sono fantastici ‘nuotatori’, capaci di percorrere più di dieci volte la loro lunghezza in un secondo: in proporzione, la stessa velocità di un ghepardo. Per muoversi ruotando sottili filamenti elicoidali, i flagelli, a più di cento giri al secondo. Il motore flagellare è una sorta di motore ‘elettrico’ alimentato da un flusso di cariche che la cellula accumula costantemente nello spazio periplasmatico che ne circonda la membrana interna; il meccanismo con il quale i batteri ‘ricaricano le batterie’ prende il nome di respirazione e di solito richiede l'ossigeno. Nel 2000 è stata scoperta mediante la sequenziazione genetica di batteri in campioni di plancton una nuova proteina, la proteorodopsina, che si inserisce nella membrana cellulare, dove utilizza energia proveniente dalla luce per accumulare carica nella ‘batteria’ anche in assenza di ossigeno.

Un team di ricercatori dell’Istituto di nanotecnologia del Consiglio nazionale delle ricerche (Nanotec-Cnr) e del dipartimento di Fisica dell'Università Sapienza di Roma in uno studio pubblicato su "Nature Communication", ha dimostrato che alcuni batteri geneticamente modificati e in grado di produrre proteorodopsina possono essere utilizzati come minuscoli propulsori in micromacchine invisibili all'occhio umano, la cui velocità di rotazione può essere finemente regolata con luce verde di intensità controllabile.

"Con un processo di stampa laser 3D su scala nanometrica - spiega Claudio Maggi, ricercatore del Nanotec-Cnr - possiamo realizzare dei micromotori composti da anelli circolari, sulla cui superficie esterna sono state scavate delle microcavità in grado di intrappolare una singola cellula batterica e costringerla a spingere il rotore”. Accoppiando un proiettore al microscopio, i ricercatori hanno poi illuminato ogni singolo rotore con riflettori di luminosità variabile riuscendo a far ruotare più rotori all’unisono. “Rispetto ai nostri precedenti tentativi basati su batteri non modificati e strutture piatte, il nostro sistema combina un'elevata velocità di rotazione con una enorme riduzione delle fluttuazioni”, dice Roberto Di Leonardo del Nanotec-Cnr e docente della Sapienza, che ha guidato il team. “Possiamo già produrre centinaia di rotori indipendentemente controllati, che utilizzano luce come fonte primaria di energia e che, un giorno, potrebbero essere alla base di componenti dinamici per microrobot in grado di selezionare e trasportare singole cellule all'interno di laboratori biomedici miniaturizzati”.

Lo studio è finanziato dal Consiglio europeo della ricerca (Erc) nell’ambito del progetto Smart ‘Statistical Mechanics of Active Matter’.

(10 luglio 2017)


IL LASER DA 1000 MILIARDI

Mille miliardi ma non di euro, dollari o yen. Mille miliardi di oscillazioni al secondo. Cioè la frequenza di un Terahertz. E' in questa banda che funziona un laser in grado di emettere un fascio molto focalizzato grazie alla duplice natura delle onde Terahertz. Lo studio è pubblicato su “Light: Science & Applications” ed è frutto di un gruppo di ricercatori dell’Istituto nanoscienze del Consiglio nazionale delle ricerche (Nano-Cnr) e dell’Università di Pisa, in collaborazione con la Scuola normale superiore (Sns) e l’Università di Cambridge. Le onde Terahertz, che penetrano facilmente plastica, vestiti e altri materiali, sono una nuova frontiera della radiologia applicata alla rilevazione di armi o agenti biologici nascosti, o per evidenziare difetti nei materiali, negli imballaggi o nelle opere d'arte.

Le Terahertz sono onde elettromagnetiche 'vicine' alle microonde e all’infrarosso e hanno una natura ibrida: si propagano sia con le proprietà delle onde - come le onde radio – sia con quelle dei raggi di luce. Per questo è possibile manipolarle combinando le tecniche di questi due campi, sia con antenne che con lenti o specchi. È quanto è stato fatto nel nuovo laser, da Luca Masini, Alessandro Pitanti, Lorenzo Baldacci, Miriam Vitiello di Nano-Cnr, coordinati da Alessandro Tredicucci dell'Università di Pisa, con l'obiettivo di generare un fascio di onde Terahertz altamente collimato da superare i limiti imposti dai microlaser disponibili finora.            

"L’idea originale è quella di utilizzare in un unico dispositivo le due anime della radiazione Terahertz: quella ereditata dalla luce e quella proveniente dalle microonde", spiega Luca Masini di Nano-Cnr e Sns. "Infatti, per generare la radiazione il dispositivo la tratta come fosse luce, usando un disco di materiale artificiale composto da strati di semiconduttore, mentre per diffonderla verso l'esterno la manipola come un’onda, utilizzando un'antenna in oro integrata nel dispositivo. Il risultato è un'emissione verticale e molto focalizzata che permette di impiegare questo laser in apparecchiature per analisi spettroscopica di materiali e di integrarlo nei nuovi laboratori miniaturizzati, i cosiddetti Lab-On-a-Chip".

Le onde Terahertz, considerate i raggi X del futuro per le grandi potenzialità di imaging (dai body scanner alla rivelazione di veleni, alle recenti applicazioni per il risparmio idrico), unite a bassi rischi per la salute, sono tra le frontiere della fotonica: "Generare radiazione Terahertz ha rappresentato una sfida scientifica per molti anni", commenta Alessandro Tredicucci, pioniere di questo settore, "ora la nuova sfida è farne una tecnologia, con dispositivi sempre meno complessi. Il nostro laser, che per la prima volta utilizza un approccio ibrido, va in questa direzione poiché permette di miniaturizzare il dispositivo e ridurre i consumi necessari per il funzionamento". Il laser è stato sviluppato nell’ambito del progetto europeo ERC SouLMan coordinato da Alessandro Tredicucci.

 

 


GENI DI LUNGA VITA

Per vivere più a lungo dovremo iscriverci all'anagrafe (genetica) dei paesi sardi nella regione dell'Ogliastra. Qui gli uomini, di solito con una aspettativa di vita inferiore di 5-6 anni rispetto alle donne, vivono addirittura più delle loro compagne: Antonio Todde, di Tiana in provincia di Nuoro, ha stabilito in 112 anni il primato italiano di longevità maschile. Bene: un team di ricercatori guidati da Francesco Cucca, Direttore dell’Istituto di ricerca genetica e biomedica del Cnr e professore di Genetica medica all'Università di Sassari, il 17 aprile 2017 ha pubblicato sulla rivista "Nature Genetics" lo studio ‘Population and individual-specific regulatory variation in Sardinia’ su oltre 600 individui sardi  di cui sono stati caratterizzati sia l’RNA sia il DNA.

DNA, RNA sono le molecole fondamentali di tutte le forme di vita conosciute. Il DNA contiene le informazioni che servono a guidare tutti i processi cellulari. Dal DNA viene copiato (’trascritto’) l’RNA, che guida la produzione di proteine, oltre ad essere esso stesso in grado di regolare diversi processi biologici. Il DNA di tutte le cellule di un organismo è sempre identico, l’RNA può variare per quantità e qualità nei diversi tipi cellulari. La grande plasticità dell’RNA determina lo sviluppo di cellule, organi e tessuti differenti, a partire dalla stessa informazione genetica presente nel DNA.

“Usando modelli statistici abbiamo correlato l’Rna delle cellule nucleate del sangue con il DNA. Ciò ci ha consentito di identificare migliaia di varianti genetiche in grado di influenzare quantità e sequenza di determinati Rna e di fornire importanti informazioni sui meccanismi di azione di varianti genetiche connesse al rischio di malattie o di altre variabili rilevanti per la salute”, spiega Mauro Pala, primo autore del lavoro.

La Sardegna presenta varianti genetiche molto rare nel resto del mondo, risultato di un popolamento avvenuto in epoche preistoriche e preservate dall’ambiente insulare. Le caratteristiche genetiche della popolazione sarda hanno facilitato le scoperte riportate in questo e altri studi, facendo avanzare la comprensione del funzionamento del genoma umano. Il ” National institute on aging" americano da 15 anni finanzia le ricerche condotte in Sardegna.


PESCI MANCINI

3 aprile 2017 - La dominanza della mano destra sulla sinistra non è una prerogativa della specie umana, anche i pesci, gli uccelli, gli insetti, in particolare le api, e perfino i vermi possono essere mancini e hanno il cervello diviso in due emisferi ai quali afferiscono diverse funzionalità destre e sinistre. Approfondire la conoscenza di questi fenomeni e di come il cervello suddivide le funzioni destra e sinistra potrà essere utile allo studio di disturbi neurologici, psichiatrici e anche all’autismo, per il quale si stanno sperimentando marker precoci sulla lateralità del cervello già a livello fetale. E’ interessante notare che tra gli autistici appare una maggiore frequenza dei mancini. Una importante applicazione di questi studi riguarda anche lo sviluppo di protesi e robot per gli amputati, che utilizzano i segnali del cervello per comandare arti artificiali.

Marilyn Monroe era mancina, e bisogna ammettere che questa non era la sua sola caratteristica di una certa rarità. Negli umani la prevalenza manuale dei destri è del 90% rispetto ai mancini, mentre risulta minore in tutte le altre specie, un poco più alta nei primati, più bassa negli altri.

Anche tra le popolazioni umane nel corso dell’evoluzione si notano differenze, ad esempio nelle popolazioni primitive che non avevano un linguaggio la differenza è meno significativa, questo può indicare che la componente ambientale influenza significativamente la dominanza manuale.

“Nonostante la mano umana sia stata una fonte di attenzione e fascino nel corso della storia - dice Castiello dell’Università di Padova - la scienza sta ancora cercando di spiegare i meccanismi che regolano una delle sue funzioni di base, la dominanza manuale. Analizzando le somiglianze tra la dominanza manuale umana e le asimmetrie mostrate da altre creature nel mondo animale emerge chiaramente che la distribuzione della preferenza e della dominanza sono nettamente spostate a destra. La lateralità – aggiunge - è presente in tutte le specie a prescindere dalla complessità e dalla dimensione del cervello”.


Un cervello di gomma

Uno studio pubblicato nel gennaio 2017 sulla rivista americana "Science" mette in relazione diretta nell’essere umano lo sviluppo della capacità di riconoscere i volti con lo sviluppo anatomico di una regione specializzata della corteccia cerebrale, individuabile nella faccia inferiore del lobo temporale1.

L’analisi, fatta con tecniche di risonanza magnetica, ha permesso di verificare come una abilità sempre maggiore nel riconoscimento dei volti, a partire dall’infanzia fino quasi ai 30 anni, si associ ad un aumento delle dimensioni di questa regione del cervello.

“Questo studio – dice Stefano Cappa, Società Italiana di Neurologia – è la prova che la plasticità del cervello continua per molti anni dopo la nascita e, addirittura dopo l’adolescenza. Finora, invece, l’orientamento della comunità scientifica concordava sul fatto che la plasticità cerebrale fosse particolarmente marcata solo nei primi anni di vita”.

Il fatto che l’aumento delle dimensioni del cervello sia specifico della parte che interessa il riconoscimento dei volti, e non riguardi una regione vicina, specializzata per il riconoscimento dei luoghi, conferma il ruolo centrale che la capacità di riconoscere gli altri ha per la nostra specie che, infatti, risulta eccellere in questa abilità.

 

Bibliografia

Gomez et al, “Microstructural proliferation in human cortex is coupled with the development of face processing”, "Science". 5 gennaio 2017.


Siamo uomini o batteri?

Censimento aggiornato dei batteri che abitano il nostro corpo: un uomo di trent'anni che pesi 70 chilogrammi ha in media trentamila miliardi di cellule proprie e ospita circa 39 mila miliardi di cellule batteriche. Più o meno è un rapporto 1 a 1, con un piccolo vantaggio per i batteri. Hanno fatto i conti i ricercatori Ron Sender, Shai Fuchs e Ron Milo su "Bioarxiv". Questo dato ridimensiona le stime precedenti che arrivavano fino a un rapporto di 10 batteri per ogni nostra cellula.

Il 20% della massa della popolazione cellulare che forma il nostro organismo è costituito da cellule muscolari, il 13% da cellule adipose, il 10% da altri tipi di cellule e circa il 2,5% da globuli rossi e piastrine.

Se però anziché alla massa si guarda al numero,vincono in modo schiacciante i globuli rossi con 24900 miliardi, seguiti a distanza dalle piastrine con 1400 miliardi.

Insomma, in sostanza non siamo uomini ma simbiosi di uomini e batteri, che vinciamo per massa ma non per numero di cellule. E non è chiaro se prevalentemente siamo noi al servizio loro o viceversa.  


422 alberi a testa

Un censimento dell’Università di Yale (Usa) indica che per ogni essere umano esistono 422 alberi. Ma il patrimonio verde si è dimezzato dall’inizio della civilizzazione. Anche per questo un

satellite artificiale altamente specializzato terrà sotto controllo la vegetazione sull’intera superficie della Terra, con particolare attenzione allo scambio di gas (anidride carbonica e ossigeno) tra piante e atmosfera. Tale scambio è il prodotto della fotosintesi, la reazione chimica che, grazie all’energia dei fotoni solari, avviene nella clorofilla, molecola contenuta in organi delle foglie detti cloroplasti. 

Il satellite si chiamerà FLEX (FLuorescenceExplorer) e rientra nei programmi dell’Agenzia spaziale europea. Il lancio è previsto per il 2022. I dati che FLEX trasmetterà (disegno) saranno preziosi per la tutela dell’ambiente e per la produzione di cibo su un pianeta la cui popolazione continua a crescere (sarà di 9,5 miliardi nel 2050).

La fotosintesi, trasformando sostanze organiche in sostanze organiche, è alla base della vita sulla Terra. La vegetazione rappresenta il 97,5 per cento di tutta la biomassa del nostro pianeta, e alimenta direttamente o indirettamente l’altro 2,5 per cento costituito dal regno animale (umanità inclusa, pari allo 0,022 per cento della biomassa totale).

Ogni secondo attraverso la fotosintesi la luce del Sole genera 16.400 tonnellate di sostanza vivente. 

Altre informazioni:

http://www.esa.int/Our_Activities/Observing_the_Earth/New_satellite_to_measure_plant_health


L'universo si sta spegnendo 

Hanno misurato l’energia emessa da 200 mila galassie in un volume ben definito dell’universo locale e hanno stabilito che è la metà di quella che veniva emessa due miliardi di anni fa. Così per la prima volta un numeroso team internazionale di astronomi ha potuto certificare che l’universo si trova nella sua parabola discendente, una sorta di lenta agonia. Questo straordinario risultato scientifico è frutto della Survey GAMA (Galaxy And Mass Assembly) e ha impegnato una pattuglia di telescopi al suolo (tra i quali VISTA E VST dell’Eso) e di telescopi spaziali della Nasa (GALEX e WISE) per analizzare la produzione energetica delle galassie in una ampia banda delle onde elettromagnetiche, in tutto 21 diverse lunghezze d’onda dall’ultravioletto al lontano infrarosso (foto). Lo stesso team progetta di estendere lo studio sulla scala dell’intero universo con altri strumenti, tra i quali il radiotelescopio SKA da un chilometro quadrato ora in costruzione. La ricerca è stata presentata il 10 agosto alla XXIX Assemblea generale dell’Unione Astronomica Internazionale a Honolulu (isole Hawaii). Il declino energetico dell’universo è noto fin dagli Anni 90 del secolo scorso ma non era mai stato misurato con tanta precisione.

Il sito della Survey GAMA: http://www.gama-survey.org/

 


Spostiamo più terra dei vulcani

Le attività umane spostano  ogni anno tra i 50 e i 60 miliardi di tonnellate di roccia, pietre, sabbia e ghiaia, di cui un terzo circa per il prelievo di minerali per l’industria metallifera e due terzi per altre industrie e per le costruzioni. E’ una quantità pari al doppio di quella eruttata dai vulcani oceanici, al triplo di quella portata al mare da tutti i fiumi del mondo, al quadruplo di quella che sposta la formazione di montagne, a dodici volte quella trascinata dai ghiacciai e a sessanta volte quella dovuta all’erosione eolica.

 Persino maggiore è lo spostamento di terra involontario, ma comunque dovuto all’azione umana, e in particolare all’erosione indotta dalle pratiche agricole: 80 miliardi di tonnellate.
La domanda di combustibili fossili comporta poi il prelievo annuo di 45 miliardi di tonnellate di materiali naturali, di cui 14 miliardi sono i combustibili effettivamente utilizzati. L’appropriazione umana di biomasse è arrivata a 27 miliardi di tonnellate, di cui 5,5 miliardi non utilizzati. Movimentazione e prelievo di materiali naturali  comportano il rilascio nell’atmosfera  di 36 miliardi di tonnellate di CO2 l’anno. Questa fotografia dell’attività umana sul Pianeta è riportata sul secondo numero di “Materia Rinnovabile”, il primo magazine interamente dedicato all’economia dei flussi di materia (Edizioni Ambiente​), in un articolo di Aldo Femia, primo ricercatore presso l’Istituto Nazionale di Statistica (Istat).


Il cervello geniale consuma di più
Un cervello con quoziente intellettivo maggiore consuma più calorie?
In linea di massima, la risposta è sì. Ma rispetto a un cervello "stupido" la differenza è piccola. Le aree del cervello più attive ricevono un flusso di sangue maggiore e assorbono più glucosio. L'intensificarsi del flusso sanguigno è in realtà quello che permette agli scanner per la risonanza magnetica funzionale di rilevare l'attività del cervello. Si può pensare che una persona meno intelligente spenda meno calorie quando pensa intensamente a un problema dato, ma uno studio del 1995 alla University of California, Irvine, ha provato il contrario. Quando un problema mentale ti sembra facile, è perché hai più neuroni che lavorano insieme per risolverlo. L'energia totale spesa è più grande, ma hai la sensazione di uno sforzo minore.
Tuttavia, questo studio riguardava solo l'energia spesa a breve termine quando i volontari si concentravano sul problema. Non si può generalizzare e concludere che un cervello con quoziente intellettivo maggiore consumi più calorie nel corso di una giornata ordinaria. E comunque, il numero di calorie extra bruciate quando si pensa è davvero piccolo rispetto alla richiesta energetica di base del cervello quando non sta facendo niente. Il nostro cervello usa circa 300 calorie al giorno solo per mantenere i suoi tessuti. Concentrarsi su problemi difficili richiede appena da 20 a 50 calorie in più ogni giorno. È più o meno quello che si consuma camminando per quattro minuti.
Quindi, a meno che non risolviate sudoku sul tapis roulant, l'attività cerebrale in realtà fa diminuire il consumo totale di calorie, semplicemente perché dedichiamo meno tempo alle attività fisiche.
Questa notizia comparirà sul prossimo numero del mensile "BBC Scienze", edizione italiana della rivista inglese.
(11 febbraio 2015) 

Contano la prima e l'ultima sillaba

I bambini imparano le parole ricordando la prima e l’ultima sillaba. Questo è il primo passo verso la conquista del linguaggio. Uno studio pubblicato sulla rivista "Child Development" ha messo in luce quali informazioni linguistiche utilizza il cervello dei bambini durante lo sviluppo del linguaggio e il formato in cui le parole vengono immagazzinate in memoria.
 Se hai solo sette mesi d’età, fra un “gelataio” e un “getalaio” non passa nessuna differenza.

Di una parola i bambini molto piccoli ricordano con precisione solo la prima e l’ultima sillaba. Quelle in mezzo possono anche essere mescolate, e per i giovanissimi ascoltatori cambia poco e nulla.
I bambini iniziano ad apprendere le parole fin dai primi mesi di vita, e per farlo devono memorizzare il loro suono e associarlo al significato. Lo studio di Silvia Benavides-Varela (ora all’IRCCS Fondazione Ospedale San Camillo di Venezia, ma al tempo dello studio alla SISSA) e di Jacques Mehler, neuroscienziato della SISSA (Trieste), ha dimostrato che i bambini intorno ai sette mesi codificano correttamente suono e posizione della prima e dell’ultima sillaba, mentre hanno difficoltà a trattenere l’ordine delle sillabe all’interno della parola.


Come sgrovigliare il DNA  

Il filamento del DNA è tutto arrotolato su se stesso. Un bel groviglio, se si pensa che la doppia elica ha una larghezza dell’ordine del nanometro e che il DNA umano è lungo un metro e 20 centimetri. Ora un gruppo di ricercatori ha trovato un modo per dipanarlo e distenderlo: infilarlo in un nanotubo. Ne hanno scritto Cristian Micheletti, riceratore della SISSA, ed Enzo Orlandini, dell’Università di Padova, in uno studio pubblicato sulla rivista “Macro Letters”.

 “Nel nostro studio – dicono i due ricercatori – abbiamo caratterizzato, usando tecniche si simulazione, i meccanismi che provocano l’annodamento in funzione del diametro del canale”.
Risultato? “Sotto i 50 nanometri di diametro la tendenza ad annodarsi si riduce drasticamente”. Grazie a queste osservazioni è quindi possibile disegnare canali per ottenere un filamento di DNA ben disteso e senza quei nodi che possono essere un ostacolo in molti metodi di analisi genetica.

nserisci del testo


"Nuova" costante di gravitazione

L’esperimento si chiama “Magia”. Ce lo presenta la prestigiosa rivista “Nature” del 19 giugno 2014, quindi niente di paranormale. Ma molto di eccezionale. I fisici dell’INFN (Istituto nazionale di fisica nucleare) e del LENS (Laboratorio europeo di spettroscopia non lineare) sono riusciti a misurare con grande precisione la costante gravitazionale di Newton G con una tecnica basata sugli effetti quantistici che si verificano a temperature vicine allo zero assoluto. Una massa di mezza tonnellata di tungsteno ha esercitato il proprio campo gravitazionale su una nuvola di atomi di rubidio lasciata cadere nel vuoto dopo essere stata raffreddata quasi allo zero assoluto con un laser che ha rallentato le velocità relative degli atomi di rubidio (indice della loro temperatura) da alcuni km al secondo qual è nell’ambiente a pochi millimetri. Il metodo è radicalmente nuovo ed è interessante perché per la prima volta ha permesso di verificare la legge di Newton su piccolissime distanze. Con i metodi precedenti non si andava a distanze sotto 0,2 millimetri, qui siamo arrivati alla scala atomica. La prima misura di G risale a Cavendish, che nel 1798 usò allo scopo la bilancia di torsione. Un’altra tecnica si basa sull’oscillazione del pendolo. Da allora 300 esperimenti hanno misurato G, che tuttavia rimane una costante nota con una approssimazione ancora insoddisfacente. E’ curioso ricordare che l’esperimento INFN-LENS è stato eseguito a Firenze a 450 anni dalla nascita di Galileo Galilei, primo scienziato a studiare e interpretare correttamente la caduta dei gravi.

Altre informazioni: http://www.lens.unifi.it/

 

 

 


Alluminio: primi nel riciclaggio!

 

Di solito le notizie che riguardano l’ambiente non sono buone. Questa fa eccezione. Nel 2013 sono state recuperate e inviate al riciclaggio 47.500 tonnellate di lattine e altri imballaggi di alluminio, pari al 70,3 per cento dell’immesso sul mercato (67.500 tonnellate).

Sono 46 milioni gli italiani che hanno contribuito a questo risultato, sparsi in 5400 Comuni che aderiscono al consorzio per la raccolta dell’alluminio. Ciò significa che il 78 per cento della popolazione del nostro paese ha compreso la necessità di difendere insieme l’ambiente e le scorte di materie prime. Poiché estrarre l’alluminio è un processo che richiede molta energia, il riciclaggio ha anche fatto risparmiare 160 mila tonnellate equivalenti di petrolio.

Imballaggi a parte, l’Italia è al primo posto in Europa anche con 878 mila tonnellate di rottami riciclati.

 

 


A pranzo con gli acari del Triassico

Nel 2012 ha suscitato grande interesse la scoperta di due acari e un moscerino risalenti al periodo triassico, oltre 230 milioni di anni fa, inglobati in goccioline di ambra trovate nelle Dolomiti, vicino a Cortina d’Ampezzo. Un nuovo studio (aprile 2014) pubblicato sul Journal of Systematic Palaeontology, condotto da un team internazionale con la partecipazione dell’Università di Padova e dell’Istituto di Geoscienze e Georisorse del Consiglio Nazionale delle Ricerche (Igg-Cnr), sempre di Padova, aggiunge ulteriori conoscenze sulla vita e sull’evoluzione di un gruppo di artropodi (invertebrati che comprendono gli insetti, i ragni e i crostacei) tra i più diffusi al mondo.

 

«Al fine di descrivere in modo più approfondito le due specie di acari triassici Ampezzoa triassica e Triasacarus fedelei, appartenenti alla famiglia Eriophyoidea» spiega Eugenio Ragazzi dell’Università di Padova «le due minuscole goccioline di ambra, della dimensione di pochi millimetri, sono state sottoposte a uno speciale procedimento di rivestimento in resina, per consolidare e proteggere l’ambra, e di delicata levigatura della superficie per osservare meglio il contenuto al microscopio».Con grande sorpresa, nella goccia che conteneva l’esemplare di Triasacarus fedelei sono stati scoperti altri due individui della stessa specie, più piccoli e quindi più giovani, che hanno fornito dati interessanti sulla crescita di questi acari dotati di due paia di zampe invece delle quattro consuete.

 

«La sorpresa è stata ancora maggiore dopo l’identificazione, sempre nella stessa goccia, di altri due acari appartenenti a due nuove specie, denominate Minyacarus aderces e Cheirolepidoptus dolomiticus» dice Guido Roghi dell’Igg-Cnr «a indicare come questi artropodi fossero già nel Triassico un gruppo altamente specializzato. Forma e dimensione di corpo e apparati boccali suggeriscono strategie alimentari diverse nell'adattarsi alla pianta ospite. L’indagine paleobotanica sui resti fossili delle piante su cui vivevano e che essudavano la resina che li ha inglobati, ha permesso» spiega Roghi «di identificare conifere della famiglia delle Cheirolepidiaceae, oggi estinte. Questi animali potevano nutrirsi accedendo attraverso gli stomi delle foglie ai tessuti vegetali meno coriacei».

 

Lo studio ha dimostrato come gli animali potevano vivere su queste piante, nonostante la produzione di resina, in quanto la secrezione resinosa avveniva prevalentemente nel fusto legnoso, lasciando agli acari uno spazio vitale sulle foglie. «Questi animali» concludono Ragazzi e Roghi «si nutrivano di conifere gimnosperme che vivevano nel Triassico, decine di milioni di anni prima della comparsa delle angiosperme di cui si nutrono oggi nella quasi totalità le specie della stessa famiglia degli Eriophyoidea tuttora esistente ».

 

 

Link all’articolo originale:

http://www.tandfonline.com/doi/full/10.1080/14772019.2013.867373

 

Inserisci del testo


Scopriamo le bugie in 3/10 di secondo

 

In 3 decimi di secondo il nostro cervello capisce se l’espressione o l’atteggiamento di una persona sono coerenti con lo stato d’animo che dovrebbe esprimere o con una descrizione verbale dello stesso stato d’animo. Se non lo sono, il messaggio verbale viene subito classificato come “bugiardo”. Il cervello, infatti, confronta molto rapidamente gli input provenienti dalle aree che elaborano le espressioni facciali, la mimica e i movimenti del corpo (incluso il sistema dei neuroni specchio) e le confronta con sensazioni viscerali della nostra memoria affettiva per una verifica immediata.

Lo annuncia una ricerca coordinata dall’Università di Milano-Bicocca pubblicata il 7 marzo sulla rivista americana “PLOS ONE”. Firmano lo studio (Comprehending body language and mimics: an ERP and neuroimaging study on Italian actors and viewers, http://dx.plos.org/10.1371/journal.pone.0091294) Alice Mado Proverbio, del dipartimento di Psicologia dell’Università di Milano-Bicocca, Marta Calbi, dipartimento di Neuroscienze dell’Università di Parma, Alberto Zani, dell’Istituto di Fisiologia e bioimmagini molecolari del Cnr e Mariella Manfredi, dipartimento di Scienze Cognitive della University of California San Diego.

A trenta studenti universitari sono state fatte osservare 280 fotografie nelle quali otto attori teatrali mimavano differenti stati d’animo (guarda e scarica le foto degli attori che hanno interpretato gli stati d’animo Figura 1). Durante l’osservazione delle foto, accompagnate da descrizioni verbali dell’emozione interpretata, è stata effettuata la tomografia elettromagnetica a bassa risoluzione (LORETA, low resolution electromagnetic tomography) per misurare l’attività elettromagnetica del cervello. In questo modo è stato misurato il tempo nel quale il nostro cervello riconosce l’incongruenza – 300 millisecondi – ed è stata identificata la regione del cervello nella quale avviene il riconoscimento: la corteccia orbito frontale ventromediale.

In questa regione elaboriamo i segnali, che arrivano dalla “pancia” (come ci sentiamo di fronte all’atteggiamento di chi ci sta davanti). Si tratta dei marker viscero-somatici legati ai nostri ricordi e alle nostre memorie affettive più profonde. Queste informazioni, una volta giunte nella corteccia orbito frontale ventromediale, vengono usate per prendere decisioni come, ad esempio, capire se una persona è sincera oppure no con noi.

 


Simmetria materia / antimateria

 

Prevista per via teorica da Paul Dirac nel 1930 e osservata per la prima volta nel 1932 da Anderson sotto forma di positroni (anti-elettroni) nei raggi cosmici, l’antimateria viene ormai prodotta in quantità quasi “industriali” (si fa per dire) negli acceleratori di particelle. Dopo la scoperta dell’antiprotone da parte di Emilio Segré e Owen Chamberlain nel 1955, i primi anti-atomi di idrogeno, costituiti da un positrone intorno a un antiprotone, sono stati ottenuti al Cern nel1995 (esperimento LEAR) e a decine di migliaia nel 2002 (esperimento Atrap-Athena, con la partecipazione dell’italiano Mario Macrì). Ora, sempre al Cern, l’esperimento Asacusa è riuscito a generare un fascio di anti-idrogeno (anche se solo di 80 atomi) e a conservarlo fino alla distanza di 2,7 metri dalla sorgente, così da poterne studiare le proprietà durante il tragitto di “volo” prima dell’annichilazione con la materia ordinaria e senza la perturbazione di campi magnetici. L’annuncio viene da “Nature Communication” del 21 gennaio 2013. All’esperimento contribuisce Luca Venturelli dell’Infn e dell’Università di Brescia. Che spiega: “Al momento del Big Bang, materia e antimateria si sono prodotte in uguali quantità. Ma noi oggi viviamo in un mondo fatto di materia e dell’antimateria primordiale non è mai stata trovata traccia. La materia ha quindi prevalso sull’antimateria e l’origine di questa asimmetria non è nota. Essendo composto da un singolo protone e un singolo elettrone, l’idrogeno è il più semplice atomo esistente e uno dei sistemi investigati con maggior precisione e meglio compreso nella fisica moderna. Quindi, confrontare atomi di idrogeno e anti-idrogeno costituisce uno dei modi migliori per eseguire test di alta precisione sulla simmetria tra materia e antimateria. Gli spettri di idrogeno e anti-idrogeno dovrebbero in linea di principio essere identici: ogni piccola differenza potrebbe aiutare a risolvere il mistero dell’asimmetria e aprire una finestra sulla “nuova fisica”.

 

 


Mitocondri e affari di cuore

I mitocondri sono le centrali elettriche delle cellule, note anche per il loro ruolo nello smaltimento delle cellule vecchie o danneggiate. In uno studio finanziato da Telethon e pubblicato su Science*, il gruppo di ricerca guidato da Luca Scorrano, professore di Biochimica all’Università di Padova e ricercatore dell’Istituto Telethon Dulbecco, ha dimostrato per la prima volta come queste importanti strutture cellulari siano in grado di determinare “in senso cardiaco” il destino della cellula a livello embrionale. Questo nuovo studio, svolto in collaborazione con l’Università di Washington, suggerisce anche nuovi potenziali meccanismi genetici alla base di alcune cardiopatie congenite.

«Questo risultato è sorprendente, perché fino ad oggi si pensava che lo sviluppo degli organi fosse diretto dal nucleo della cellula e che i mitocondri fornissero semplicemente l’energia» spiega Scorrano. «In questo studio abbiamo invece dimostrato come i mitocondri possano determinare il tipo di tessuto che una cellula diventerà durante lo sviluppo embrionale. Fino a ieri avrei detto che questa era fantascienza». L’attuale teoria sull’origine dei mitocondri richiama alla mente il film fantascientifico “L’invasione degli ultracorpi”: si pensa infatti che questi organelli derivino da batteri ancestrali che hanno invaso altre cellule, diventandone parassiti. Nel corso dell’evoluzione, questa iniziale invasione delle cellule ospiti ha dato origine a una relazione simbiotica, in cui le cellule contano sui mitocondri per la produzione di energia e il controllo di qualità e i mitocondri dipendono dalle cellule per loro stessa sussistenza.

«Sappiamo che le nostre cellule hanno sviluppato un rapporto costruttivo con quelli che in origine erano invasori esterni» continua Gerald Dorn, professore di Medicina alla Washington University e coautore dello studio. «Ora però abbiamo dimostrato che questi invasori possono diventare “i capi”. Sapevamo già che i mitocondri possono decidere se avviare o meno la cellula verso la morte: oggi abbiamo dimostrato che possono anche indirizzare il destino della cellula verso il tessuto muscolare cardiaco». Benché questo studio riguardi specificamente le cellule muscolari cardiache, i ricercatori hanno intenzione di proseguire cercando di capire se questo paradigma valga anche per altri tipi di tessuto. «La nostra interpretazione dello sviluppo cellulare cambia completamente» continua Dorn: «non è il nucleo a controllare i mitocondri, al contrario sono questi organelli a controllare l’espressione dei geni nucleari e a farlo in modo tale da impedire lo sviluppo delle cellule muscolari cardiache».

Durante il normale sviluppo dell’organismo i mitocondri si fondono tra loro grazie all’intervento di proteine presenti sulla loro superficie, chiamate mitofusina 1 e 2. In questo lavoro, i ricercatori hanno dimostrato nel modello murino che, inattivando questi due geni soltanto nelle cellule muscolari cardiache embrionali si interferiva pesantemente nello sviluppo del cuore dell’embrione, che presentava tra le altre cose pareti eccessivamente sottili. Successivamente, hanno mostrato che cellule staminali embrionali di topo prive del gene per la mitofusina 2 e per Opa1, un altro gene con un ruolo simile, non potevano dare luogo a cellule muscolari cardiache funzionanti.

E il mancato sviluppo corretto del cuore non era il semplice risultato di una mancanza di energia da parte di mitocondri difettosi: come spiega Scorrano, «questi mitocondri non integri, piccoli e separati in quanto incapaci di fondersi tra loro non erano in grado di inviare i ben noti segnali che guidano l’espressione dei geni nucleari. Usando l’approccio del “cuore nel tubo” abbiamo messo in luce una nuova modalità con cui gli invasori ancestrali controllano il destino della cellula». Molti di questi segnali sono già noti per essere coinvolti in difetti cardiaci congeniti, come per esempio i difetti del setto ventricolare (veri e propri buchi nella parete che separa i due ventricoli cardiaci).


«Questo studio apre nuove porte nella ricerca di geni coinvolti nello sviluppo di difetti cardiaci congeniti, come quelli in cui il cuore risulta piccolo e poco sviluppato» concludono i ricercatori. «In particolare dovremo cercare mutazioni nelle proteine che regolano la fusione mitocondriale, come le mitofusine. Questi risultati suggeriscono anche che nei pazienti affetti dalle malattie genetiche dovute a difetti nella mitofusina 2 e in Opa 1 – rispettivamente la malattia di Charcot-Marie-Tooth di tipo IIa e l’atrofia ottica dominante – possano esserci problemi cardiaci latenti».

*Kasahara A, Cipolat S, Chen Y, Dorn GW, Scorrano L. “Mitochondrial fusion directs cardiomyocyte differentiation via calcineurin/notch signaling”. Science Express. Oct. 3, 2013.

nserisci del testo


Fotosintesi: un passo avanti

La fotosintesi è il processo chimico in cui la luce solare permette di trasformare anidride carbonica e acqua in glucosio, lo zucchero che fa vivere le piante. Converte cioè la luce in energia chimica liberando tutto l’ossigeno che respiriamo, producendo le sostanze di cui ci nutriamo e, a cascata, i combustibili che utilizziamo per sostenere il nostro stile di vita.

Un gruppo di ricercatori del Dipartimento di Biologia dell’Università di Padova composto da Luca Carraretto, Elide Formentin, Enrico Teardo, Vanessa Checchetto, Tomas Morosinotto, Giorgio Mario Giacometti e Ildikò Szabò, in collaborazione con Martino Tomizioli e Giovanni Finazzi del Laboratorio di Fisiologia Cellulare e Vegetale del CNRS di Grenoble ha recentemente pubblicato su Science uno studio sulle funzioni della proteina TPK3. TPK3 è una proteina canale che trasporta cariche positive (ioni potassio) in senso inverso ai protoni (ioni idrogeno) attraverso la membrana fotosintetica. Così rende possibile e regola finemente la variazione del flusso di protoni, e di conseguenza, l’efficienza fotosintetica.

«L’identificazione del canale TPK3 è un passo importante verso la comprensione della regolazione e della flessibilità del processo fotosintetico alle condizioni ambientali» così ha commentato il lavoro del team di ricerca padovano l’esperto mondiale nel campo della fotosintesi Jean-David Rochaix dell’Università di Ginevra in un articolo nello stesso numero di Science.

«In questo lavoro per la prima volta è stato identificato il ruolo del canale TPK3 nella fotosintesi e la sua localizzazione proprio nella membrana fotosintetica, i tilacoidi» dice la Professoressa Ildikò Szabò, che ha coordinato la ricerca, «Questa proteina controlla il flusso di ioni potassio e si è mostrato come la sua attività ricopra un ruolo fondamentale nella regolazione delle varie tappe della fotosintesi quando la radiazione solare disponibile nell’ambiente varia nella sua intensità. In assenza di tale regolazione le piante non sarebbero in grado di sopravvivere e prosperare in condizioni ambientali diverse. La definizione del ruolo del canale TPK3 può essere visto come un completamento della teoria chemiosmotica del Premio Nobel Peter Mitchell, che imputava al movimento di ioni attraverso la membrana biologica la produzione di energia necessaria per la generazione di ATP (la “moneta energetica” nelle cellule)».

Lo studio ha inoltre evidenziato che, in piante in cui l’espressione del gene codificante per la proteina TPK3 è stato diminuito (tramite gene silencing), la mancanza di questa proteina non attiva l’innesco di processi di protezione dalla luce eccessiva, causando una crescita diminuita delle piante e un cambiamento del colore delle foglie.

«Grazie all’utilizzo di una particolare tecnica di spettroscopia di assorbimento risolta nel tempo (l’elettrocromismo)» continua Giovanni Finazzi del Laboratorio di Fisiologia Cellulare e Vegetale del CNRS di Grenoble «abbiamo potuto misurare le diverse componenti del gradiente elettrochimico dei protoni in vivo, verificare il ruolo chiave del canale TPK3 nella regolazione del gradiente dei protoni e quindi della capacità delle piante a utilizzate la luce per la fotosintesi».

Lo studio rappresenta un passo avanti nella comprensione dei meccanismi molecolari di un importante processo e potrà contribuire allo sviluppo di sistemi per convertire l’energia solare in un’altra forma facilmente utilizzabile come ad esempio un combustile liquido (biocarburante) alternativo a quelli fossili utilizzati oggi.

Il team di ricercatori guidati dalla Professoressa Ildikò Szabò fa parte dell’Unità di ricerca in Biochimica del Dipartimento di Biologia dell’Università di Padova diretto dal Prof. Giorgio Mario Giacometti. La ricerca pubblicata su Science è stata sostenuta dai finanziamenti dell’ European Molecular Biology Organization Young Investigator Award e il PRIN del Ministero dell’Università del 2011.

Aticolo su http://www.sciencemag.org/content/342/6154/114.full.pdf

 


Il film del the verde

 

Giovanni Appendino, professore di chimica organica all’Università del Piemonte Orientale, mi segnala un articolo che “Angewandte Chemie” (la più importante rivista di chimica) ha messo in rete il 23 agosto 2013. “L'autore – mi scrive Appendino – grande esperto in biomateriali, ha scoperto, forse casualmente, che i polifenoli del the verde e del vino si attaccano a tutte le superfici (inclusi i nanotubi e addirittura il teflon, una adesività leggendaria e senza precedenti nella scienza dei materiali), formando un film sottile e incolore dotato di proprietà anti-batteriche e anti-ruggine. La tecnologia è di una semplicità disarmante. Si prepara un the verde, si lascia alcune ore il the nella tazza e poi si lava via tutto. Apparentemente la tazza è pulita, ma se ci verso dentro del nitrato d'argento, diventa tutta nera e si evidenzia la presenza di questo film, che è stato poi caratterizzato in termini fisici dagli autori. Gli autori pensano che i polifenoli polimerizzino formando uno strato molto sottile di polimero. Fra i possibili campi di applicazione, gli autori citano in primis tutti i materiali usati in medicina, dai cateteri agli stent, ma si può immaginare una miriade di altre applicazioni.”

Mi perdoni il professor Appendino se mi sono appropriato della sua spiegazione della scoperta: ho provato a riscriverla, ma non veniva altrettanto bene. A questo punto gli rubo anche il commento, a mio modo di vedere ancora più importante della notizia della scoperta perché indica uno stile rivoluzionario nel fare ricerca. “La cosa sorprendente – mi ha scritto Appendino – è che, anche in campi tradizionalmente considerati ad alta tecnologia e astratti, si possono fare scoperte fondamentali in modo molto semplice. Mi viene in mente il lavoro, sempre pubblicato su Angewandte Chemie, sul precursore mancante nel metabolismo della clorofilla (di sicuro la molecola più importante per la nostra vita, visto che genere l'ossigeno che ci fa respirare) che si è trovato essere presente nella buccia della banana quando uno studente ha casualmente messo sotto la luce UV una banana e ne ha notato la fluorescenza blu stranissima (fra tante cose strane che si fanno in giro sembra che nessun chimico avesse mai messo una banana sotto la luce UV). Non escluderei che il lavoro sia stato ispirato al fatto che qualcuno in laboratorio aveva usato un beker per fare del the verde e poi, dopo averlo lavato, ci hanno messo casualmente del nitrato d'argento. Non hai davvero idea delle stranezze che possono succedere in un laboratorio di chimica. Già la materia è interessante, ma se poi aggiungi la creatività e l'improvvisazione e la follia di chi ci lavora dentro, è irresistibile. Il film a base di polifenoli mi sembra la cosa più bio che ci sia. Mi ricorda i Flinstonn, che hanno tutto, anche l'automobile, ma usano solo oggetti naturali.”

Gli autori dell’articolo: Tadas S. Sileika, Devin G. Barrett, Ran Zhang, King Hang Aaaron Lau e Phillip B.Messersmith.

Mi vengono in mente gli scopritori del graphene, i russi Geim Andre e Kostantin Novoselov, premi Nobel 2010 per la fisica, che ottennero questo incredibile materiale asportando con nastro adesivo sottilissimi strati di grafite ricavata da qualche matita. Altro che gli 8 miliardi di euro del Large Hadron Collider del Cern!  

Il link all’articolo: http://onlinelibrary.wiley.com/doi/10.1002/anie.201304922/abstract

 


Arriva il raggio T

 

Lo chiamano Raggio T, che fa tanto fantascienza. In realtà T sta per Tera, Terahertz Band. Si tratta delle frequenze che cadono tra le microonde (300 GHZ-3GHz, cioè lunghezze d’onda da 1 mm a 10 cm) e i raggi infrarossi (428THz-3 THz, onde da 700 nm a 1 mm). Il Raggio T, insomma, occupa le frequenze da 3 THz a 300 GHz, corrispondenti a lunghezze d’onda comprese tra 100 millesimi di millimetro e un millimetro.

L’astronomia è stata la prima a esplorare tale banda submillimetrica dello spettro elettromagnetico, ovviamente in ricezione, utile per studiare l’universo “freddo” dei sistemi planetari in formazione e delle nubi di polveri cosmiche. Il radiotelescopio ALMA in Cile è ilpiù potente strumento del genere. Ma si incontravano grosse difficoltà nel creare oscillatori efficienti a frequenze così alte. Ora la tecnologia del grafene promette come molto vicine molto applicazioni di questa banda alla vita quotidiana: comunicazioni nell’Internet delle cose,  smart phone, body scanner, studio e restauro di opere d’arte, diagnostica medica.

Il grafene è un materiale costituito da strati monoatomici di grafite: la sua scoperta ha dato il Premio Nobel 2010 ai russi Andre Geim e Konstantin Novoselov. Le sue straordinarie proprietà permettono di concepire dispositivi elettronici funzionanti nella banda dei Raggi T, a cminciare dai diodi risonanti a effetto tunnel. Sarà la prossima rivoluzione delle telecomunicazioni e dell’elettronica. L’Unione Europea ha finanziato con un miliardi di euro in 10 anni un Progetto Graphene.

19 agosto 2013

 


La stella più grande

Una stella gigantesca sta nascendo a una distanza di undicimila anni luce nel grembo di una nebulosa oscura ricca di polveri: la massa del suo inviluppo embrionale è dell’ordine di 500 volte quella del Sole. E’ la massa più grande che sia mai stata rilevata. Secondo i modelli teorici, già stelle di una decina di masse solari sono instabili e l’instabilità aumenta con la massa. E’ probabile che quando sarà finito il processo di contrazione della nebulosa la stella che nascerà si assesterà sulle 100 masse solari. I primati finora registrati non vanno oltre le 70-80 masse solari. La scoperta è frutto di osservazioni eseguite con il telescopio millimetrico ALMA dell’Osservatorio Australe Europeo nel deserto di Atacama sulle Ande del Cile nserisci del testo


Come cade l'antimateria?

I

Come cadrebbe una mela di antimateria? Forse all’insù? E’ improbabile, ma una collaborazione tra il Cern (Ginevra) e il Lawrence Laboratory di Berkeley (Usa) sta preparando un esperimento, detto ALPHA, per accertarlo. A cadere non è proprio una mela, ma una infinitesima masserella di 434 anti-atomi di anti-idrogeno. Cioè atomi costituiti da un antiprotone con intorno un positrone. Come sappiamo, l’antimateria, se entra in contatto con la materia, si annichila in un lampo di energia. Per mezzo di un campo magnetico, la masserella di anti-idrogeno è quindi tenuta sospesa nel più perfetto vuoto possibile. A questo punto si spegne il campo magnetico e si osserva come cade il pezzetto di antimateria. Il campo non si azzera istantaneamente: ci vogliono 30 millesimi di secondo, durante i quali parecchi antiatomi vanno ad annientarsi contro le pareti della trappola che li imprigiona. Nellasimulazione che è stata fatta, già dopo 20 millesimi di secondo gli antiatomi sopravvissuti sono solo 23, spiega Jonathan Wurtele, di Berkeley in un articolo su “Nature Communications”. La cosa strana è che, benché prevalga la tendenza a cadere verso il basso e ad annichilarsi sul fondo della trappola, alcuni antiatomi vanno invece ad annichilarsi sulla parete superiore, proprio come se cadessero verso l’alto. Per ora il margine di incertezza è 100 volte più grande della misura che si vuole compiere. Conclude Joel Fajans, Università di Berkeley: “Ci aspettiamo che l’antimateria cada verso il basso, ma un esperimento più accurato potrebbe anche riservare delle sorprese”.

L’articolo originale: http://www.nature.com/ncomms/journal/v4/n4/full/ncomms2787.html

1° maggio 2013

 


Asimmetria matertia/antimateria

La simmetria nella natura non è perfetta: per questo oggi non si osserverebbe antimateria nell’universo. L’esperimento LHCb (foto) eseguito al Cern di Ginevra ha fornito nuove importanti indicazioni (“Physics Review Letters”, 24 aprile). Che nel mondo delle particelle elementari la simmetria di carica elettrica (C) e la simmetria destra/sinistra (P) analoga alla riflessione in unno specchio non fossero rispettate in alcune interazioni deboli, è noto da tempo. Se la simmetria CP fosse esattamente conservata, non ci sarebbe giustificazione per la scomparsa dell’antimateria nei primi istanti dopo il Big Bang. Le violazioni finora osservate (per esempio nell’esperimento BaBar a Stanford, Usa) non sono però sufficienti a giustificare la totale scomparsa. Ciò avviene probabilmente perché finora gli esperimenti si erano svolti a energie troppo basse. Una violazione di simmetria più vistosa è emersa dall’esperimento LHCb, che ha prodotto miriadi di particolari mesoni Bs e delle loro antiparticelle (anti-mesoni Bs). Su 1065 decadimenti di mesoni Bs, in 676 casi gli anti-Bs decadono in mesoni K e pioni (rispettivamente carichi positivamente e negativamente). Ci si attendeva che i mesoni Bs di materia ordinaria producessero un numero uguale di decadimenti identici ma con cariche invertite. Invece è successo solo in 389 casi. “L’entità di questa asimmetria di comportamento è molto grande – spiega Vincenzo Vagnoni dell’Infn di Bologna, uno dei firmatari dell’articolo – e la misura effettuata da LHCb apre un nuovo settore d’indagine che potrà portare, con l’aumento della precisione statistica, una migliore comprensione dei fenomeni alla base della violazione della simmetria CP e alla scoperta di nuovi effetti che possano finalmente spiegare il mistero della scomparsa di antimateria dall’universo”.

http://prl.aps.org/

 


Uomini e topi: come funziona l'occhio

Segnalo questo annuncio della Sissa (Scuola Internazionale Superiore di Studi Avanzati di Trieste) perché chi, come me, usa gli occhi anche per osservazioni astronomiche - sia pure dillettantesche - può trovarlo interessante.

L’immagine di un oggetto, quando si proietta nell’occhio, può assumere le forme più varie a seconda del punto di vista adottato perché cambiano la distanza, la prospettiva, l’illuminazione e così via. Eppure in genere non abbiamo difficoltà a riconoscerlo. Questo è ben noto per gli umani e per i primati, ma ora Alireza Alemi-Neissi, Federica Rosselli e Davide Zoccolan della Sissa hanno accertato che anche i ratti possiedono questa raffinata capacità visiva e che il loro cervello usa strategie di elaborazione delle immagini piuttosto sofisticate. Lo studio è stato appena pubblicato su The Journal of Neuroscience.

Vedere è un’attività talmente spontanea che non ci accorgiamo di quanto complessi siano i meccanismi cerebrali implicati. Per esempio, riconosciamo facilmente gli oggetti, che ci paiono sempre uguali a sé stessi senza renderci conto che li osserviamo da punti di vista sempre diversi e che la loro immagine – il profilo di intensità luminosa che si proietta sulla retina – varia tantissimo ogni volta che li guardiamo.
 Per mantenere questa “invarianza” nella forma, il nostro cervello mette in atto processi che dall’immagine bidimensionale estraggono informazioni visive “chiave” che ci permettono di riconoscere l’oggetto in ogni condizione. Gli scienziati ritengono che questa capacità sia propria dell’essere umano e degli altri primati, ma è controverso il fatto se questa capacità esista anche in altre specie di mammifero.  
Negli esperimenti della Sissa, i ratti osservavano oggetti in condizioni variabili di dimensione, posizione, distanza e punti di vista, coperti da maschere che ne lasciavano intravedere solo alcune porzioni. I ratti si sono dimostrati molto abili nel giudicare se due oggetti erano identici o no.
Questi esperimenti hanno rivelato che la strategia di riconoscimento usata dal cervello dei ratti si basa sulla raccolta delle caratteristiche visive dell’oggetto che massimizzano l’informazione disponibile. In pratica, il sistema visivo del roditore identifica e cerca attivamente le caratteristiche più tipiche dell’oggetto e soggette al minor cambiamento al variare del punto di vista.
“Queste osservazioni – conclude Davide Zoccolan – suggeriscono che il sistema visivo dei ratti può servire da potente modello per studiare le basi neurali del riconoscimento degli oggetti”.

(3 aprile 2013)

 


I neutrini svelano il cuore della Terra

Un esperimento per lo studio dei neutrini in funzione nel Laboratorio del Gran Sasso sta svelando molti segreti del nostro pianeta. La Terra è geologicamente viva: ce lo dicono i terremoti, i vulcani, le montagne, le dorsali oceaniche e più in generale la tettonica a placche, il paradigma della geofisica che spiega unitariamente tutti questi fenomeni con il lento moto di una dozzina di “placche” o “zolle” che, come un mosaico, costituiscono la litosfera, popolarmente la “crosta terrestre”, spessa da 30 a 50 chilometri. Il movimento delle “placche” – qualche centimetro all’anno – è generato da moti convettivi che avvengono nel mantello, uno strato semi-fluido spesso 2900 km che sta intorno al nucleo ferroso della Terra. Ma qual è il motore che fa salire verso la superficie le correnti convettive del mantello? L’esperimento Borexino, catturando i neutrini caratterizzati da una specifica energia provenienti dal sottosuolo (detti per questo geo-neutrini), ha fornito la risposta. Nel mantello, uranio 238, torio 232 e potassio 40 con il loro decadimento radioattivo funzionano come una stufa che riscalda il pianeta generando i movimenti della crosta e quindi l’attività vulcanica, i terremoti, il sollevamento delle montagne, i fenomeni idrotermali e così via. Le prime indicazioni in questo senso vennero da Borexino nel 2010. Ora nuovi dati presentati in un convegno sui telescopi a neutrini svoltosi dal 10 al 15 marzo a Venezia lo confermano. Il flusso dei geo-neutrini spiega circa la metà dell’energia interna della Terra. Il rapporto dei contenuti di uranio e torio nel mantello è in accordo con quanto si trova analizzando le meteoriti. Questa è una importante conferma delle teorie sull’origine del Sistema solare. Inoltre gli ultimi dati di Borexino smentiscono con più precisione l’ipotesi che al centro del nostro pianeta agisca una sorta di enorme reattore naturale, il cosiddetto geo-reattore, che sfrutti giacimenti di uranio presenti intorno al nucleo centrale della Terra.

Altre informazioni: https://agenda.infn.it/conferenceDisplay.py?confId=5268


Il protone si è ristretto?

Meglio essere cauti, ma la notizia è di quelle curiose e, se confermata, anche importante.

Il protone sarebbe un po’ più piccolo di quanto si riteneva. Un esperimento pubblicato su “Science”, dopo tre anni di analisi molto accurate, indica che le dimensioni di questo fondamentale costituente dei nuclei atomici, e quindi dell’universo, sarebbe più piccolo del 4 per cento rispetto a quanto si riteneva, quantità corrispondente a 0,03 femtomillimetri (milionesimi di miliardesimi di millimetro). E’ una quantità infinitesima, ma è pur sempre assai più grande del margine di errore delle misure eseguite. I primi indizi risalgono al 2010 e a un articolo su “Nature”. L’esperimento consisteva nel bombardare atomi di idrogeno nei quali l’elettrone era stato sostituito dal suo “cugino” più massiccio, il muone. L’esperimento più recente, eseguito sondando il protone a vari livelli di energia, indica un raggio del protone pari a 0,84 femtomillimetri. Aldo Antognini, il fisico dello Swiss Federal Insitute of Technology di Zurigo (Svizzera) autore di entrambe le pubblicazioni, ritiene che in sostanza gli esperimenti concordino nel sollevare il problema delle dimensioni del protone. Una ipotesi è che si sia inavvertitamente scoperta una “nuova fisica” e che i muoni interagiscano con i protoni in modo diverso dagli elettroni. Ovviamente, come a suo tempo per la velocità superluminale dei neutrini, vale il principio che grandi scoperte esigono grandi prove. C’è quindi ancora molto lavoro da fare.

Altre informazioni:

https://muhy.web.psi.ch/wiki/

 Related stories

More related stories

The latest experiment also used muonic hydrogen, but probed a different set of energy levels in the atom. It yielded the same result as the Nature paper — a proton radius of 0.84 fm, says Aldo Antognini, a physicist at the Swiss Federal Institute of Technology Zurich in Switzerland and an author of both muonic papers1, 2. The second measurement "is totally compatible with the previous value," he says.

But it is still not compatible with the measurements taken by non-muonic techniques, says John Arrington, a nuclear physicist at Argonne National Laboratory in Lemont, Illinois. Errors in the muon-based measurements of the proton radius are unlikely to be to blame, Arrington says, and yet it seems equally unlikely that all the other measurements are wrong, too.

One possibility is that Antognini's team has inadvertently discovered new physics. It is the only one to use muons to probe the proton — the others all used electrons, and there is a small possibility that muons interact with protons differently from electrons. The effect would have to be small, or it would also show up in other places, such as the Large Hadron Collider, the big particle accelerator near Geneva, Switzerland.

Arrington and Sick both have their doubts. "I'm a big believer in our understanding of physics," Arrington says. Given the power of existing theories, Sick says, the idea of fundamental differences between muons and electrons is "sort of hard to imagine".

But equally hard to imagine is what might have gone wrong. Experimentalists have combed back over their data. Theorists have recrunched their equations. There could be a problem with the models used to estimate the proton size from the measurements, but so far, none has been identified. "Many of the ideas that have been stated have all been looked at in more detail," Sick says. "Nobody has come up with a clear result."

Journal name:

Nature

DOI:doi:10.1038/nature.2013.12289


Memoria con 4 atomi

IInserendo 4 o 5 atomi di rame in nanocristalli di semiconduttore si conferisce ad essi la proprietà di memoria magnetica. La scoperta si deve a un gruppo di ricercatori del Los Alamos National Laboratory (Usa) e dell'Università di Milano-Bicocca. La loro pubblicazione è sulla rivista "Nature Nanotechnology". «L'aspetto più sorprendente – dice Sergio Brovelli, 34 anni, ricercatore del dipartimento di Scienza dei materiali a Milano-Bicocca - è che la risposta magnetica dei nanocristalli aumenta di oltre il cento per cento se questi sistemi sono irraggiati con luce ultravioletta o visibile e che questa fotomagnetizzazione (cioè l'aumento di magnetizzazione sotto stimolo luminoso) persiste nel tempo per molte ore al buio, generando memoria magnetica sensibile a un processo di 'scrittura ottica'».  

Di qui possibilità di applicazione in computer ottici.


Un microbo con la bussola

8 gennaio 2013

L’uomo si è evoluto e vive immerso nel campo magnetico della Terra ma non ha sensori che gli permettano di avvertirlo. A rivelarci l’esistenza del campo magnetico terrestre è stata la bussola. Esistono però forme di vita che i sensori magnetici li hanno. Mentre per ciò che riguarda certi uccelli migratori la cosa è controversa, non esiste dubbio che particolari batteri siano davvero simili a microscopiche bussole biologiche. Una nuova specie di questi microrganismi è stata scoperta da un gruppo di ricercatori dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV), in collaborazione con l’Istituto Oceanografico dell’Università di San Paolo, l’Università del Nevada e l’Università di Rio de Janeiro. Il ritrovamento è avvenuto presso la foce del fiume Neponset (Massachussetts, Usa).

Il nuovo batterio magnetotattico (così sono definiti i batteri sensibili al campo magnetico terrestre), osservato al microscopio elettronico, ha rivelato una struttura a catena di cristalli di magnetite pura. Ciascun cristallo misura  da 20 a 50 nm (il nanometro equivale a un miliardesimo di metro, cioè un milionesimo di millimetro; per confronto, la doppia elica del DNA ha un diametro di circa 2 nm).

Battezzato Magnetobrivio blakemorei, il batterio è stato isolato e messo in coltura nei laboratori dell'Istituto di Microbiologia dell'Università di Rio de Janeiro, in Brasile. Per studiare le sue caratteristiche magnetiche, la coltura di Magnetobrivio blakemorei è stata poi trasferita presso il laboratorio di paleomagnetismo dell'Istituto Nazionale di Geofisica e Vulcanologia (INGV), dove è stato sviluppato un protocollo di analisi magnetiche con strumentazione all'avanguardia su questo microorganismo vivo.

I primi risultati della ricerca (pubblicati su "Environmental Microbiology" alla fine del 2012) hanno permesso di definire l'impronta magnetica di questo microorganismo che ne permette il riconoscimento. Caratterizzare al meglio questi microorganismi è importante per le loro possibili applicazioni anche nel campo della medicina.

 “Il batterio – spiega Fabio Florindo, dirigente di ricerca all’INGV e firmatario dell’articolo – è  stato esaminato sia al microscopio elettronico a trasmissione (TEM) per avere una visione dei cristalli di magnetite, sia con tecniche che servono a studiare le proprietà magnetiche dei cristalli sintetizzati. Tali tecniche (first order reversal curves, FORC; ferromagnetic resonance, FMR; e decomposition of saturation remanent magnetization, DAM). Sono di assoluta avanguardia. Grazie ad esse, applicando opportuni valori di campo magnetico, è possibile rilevare l’interazione magnetica tra i diversi cristalli e stimare le loro dimensioni.”.

I batteri magnetotattici furono identificati per la prima volta nel 1960. Hanno la peculiarità di muoversi lungo le linee di forza del campo magnetico terrestre (magnetotassi) e lo fanno utilizzando cristalli di magnetite che i batteri biomineralizzano all'interno della cellula grazie alla presenza di un gruppo di specifici geni. Per questa loro caratteristica hanno destato un forte interesse e sono stati sottoposti a numerosi esperimenti a bordo dello Space Shuttle per esaminarne il comportamento in assenza di peso.

Altre informazioni sui batteri magnetotattici:

http://en.wikipedia.org/wiki/Magnetotactic_bacteria


Record verso la lunghezza di Planck

17 dicembre 2012.

Registriamo oggi un passo verso il mondo di Planck: quel mondo misterioso dove gravitazione e meccanica quantistica trovano la loro radice comune, dove lo spazio e il tempo sono granulari - cioè quantizzati -, dove l’Einstein della relatività generale incontra il suo alter ego, l’Einstein dell’effetto fotoelettrico.

E’ il microcosmo estremo, oltre il quale le dimensioni perdono ogni significato fisico. Ragionando in metri, da esso ci separano 34 zeri dopo la virgola. Fino a ieri l’uomo era riuscito a spingersi a 17 zeri. Da oggi possiamo dire di essere arrivati a 18 zeri. Ne mancano ancora 16 (un fattore 10 milioni di miliardi). Siamo lontanissimi dalla meta, ma intanto un’altra tappa è superata. Ci sono riusciti ricercatori dell’Infn di Firenze, Pisa, Trento e dei Laboratori di Legnaro e lo hanno annunciato su “Nature Physics”.

In sintesi, utilizzando una antenna gravitazionale realizzata nei Laboratori Infn di Legnaro (Padova), il gruppo di fisici italiani ha esaminato lo spazio-tempo sulla scala di un miliardesimo di miliardesimo di metro e ha potuto verificare che fin lì non c’è traccia di unificazione tra gravità e meccanica dei quanti. Cosa prevista, ma pur sempre importante perché stabilisce il nuovo limite nell’esplorazione dell’estremamente piccolo, il mondo la cui unità di misura è la lunghezza di Planck, pari, precisamente, a 1,616252 x 10 alla meno 35, con una incertezza standard di 8,1 x 10 alla meno 40.

“Abbiamo utilizzato l’oggetto più immobile del mondo, l’antenna per onde gravitazionali Auriga situata nei laboratori Infn di Legnaro – spiega Francesco Marin, dell’Infn di Firenze, primo firmatario dell’articolo – per cercare di capire qual è il punto più piccolo in cui i riflessi di questa unificazione dovrebbero osservarsi. Siamo scesi più in basso del record precedente e non abbiamo osservato nulla. Quindi abbiamo stabilito un nuovo limite: per cercare i riflessi dell’unificazione gravità-meccanica dei quanti bisognerà scendere ancora. Ma è una gara affascinante perché  laggiù c’è la nuova fisica, quella dei buchi neri o delle stringhe, un mondo ignoto e meraviglioso”.

L’antenna gravitazionale Auriga ha vibrazioni inferiori al miliardesimo di miliardesimo di metro. Il suo cuore è una barra di alluminio lunga 3 metri e pesante 2 tonnellate, sospesa a un filo e mantenuta a temperatura estremamente bassa (1 millesimo di grado sopra lo zero assoluto). Poiché freddo, in un certo senso, significa immobilità, questo enorme diapason è particolarmente adatto a rivelare le onde gravitazionali, cioè le perturbazioni dello spazio-tempo previste dalla relatività generale finora mai osservate direttamente. La barra di Auriga è l’oscillatore meccanico più ‘tranquillo’ mai costruito: la sua velocità di vibrazione è di pochi femtometri al secondo. Come dire che in un secondo le facce della barra si spostano di una distanza corrispondente al nucleo di un atomo; per percorrere un cammino di un metro, ci metterebbero quasi 10 milioni di anni. Quindi la vibrazione resta confinata in meno di 10 alla meno18 metri. Se la ‘grana’ dello spazio fosse più grossa di questa ampiezza di vibrazione, Auriga lo avrebbe segnalato.

 

 


Il tempo non scorre in modo simmetrico!

Per la prima volta un esperimento avrebbe dimostrato che il tempo ha una direzione preferenziale, nella quale scorre più velocemente. Secondo i dati annunciati ieri dalla collaborazione internazionale BaBar, la cui sede è in California a Menlo Park presso Slac, Stanford Linear Accelerator, esiste almeno un fenomeno del mondo subatomico che non avviene in modo temporalmente simmetrico. Se confermata, questa scoperta apre prospettive di grande importanza sia nel mondo delle particelle elementari sia a livello cosmologico.

Le simmetrie fondamentali sono tre: destra/sinistra rispetto allo spazio, positivo/negativo rispetto alla carica elettrica e passato/futuro rispetto al tempo. Nelle interazioni deboli sono state scoperte violazioni della simmetria spaziale e di carica, e poi anche le due violazioni insieme. Nessuna violazione della simmetria temporale era mai stata osservata prima dell’annuncio dato il 20 novembre dai ricercatori di BaBar. E la teoria non prevede la possibilità di una triplice violazione spazio, carica e tempo. “Abbiamo visto la violazione dell’invarianza temporale attraverso lo scambio di particolari stati iniziali e finali di mesoni B neutri – spiega Roberto Calabrese, Università e Infn di Ferrara, coordinatore dei ricercatori italiani impegnati nell’esperimento BaBar - .Secondo i dati raccolti, il mesone B0 si trasforma nel mesone B_  più velocemente di quanto un B_ si trasformi in B0.  E' stato emozionante verificare che l’invarianza temporale è violata, mentre la simmetria globale CPT, come previsto teoricamente, resta valida”. Insomma: se si potesse girare un film di uno dei due decadimento, vedremmo che il suo inverso ha una durata diversa. La natura, per così dire, è più veloce in una direzione e più lenta nella direzione contraria.

Il ruolo dell'Italia è stato determinante per ottenere questo importante risultato. Tramite l'Istituto Nazionale di Fisica Nucleare ha fornito un contributo pari al 20% sia di persone che di risorse finanziarie per la realizzazione dell’esperimento BaBar. In particolare hanno il marchio della ricerca e dell'industria italiana, il grande magnete che incurva la traiettoria della particelle, prodotte nel cuore del rivelatore di BaBar e altre componenti fondamentali dello stesso rivelatore: il rivelatore di vertice e il rivelatore di muoni. BaBar è una collaborazione internazionale costituita da circa 400 scienziati ed ingegneri di 74 Università e Laboratori americani ed europei.

Altre informazioni:

http://www-public.slac.stanford.edu/babar/

http://www.slac.stanford.edu/BF/

 


Staminali 

 

Notizia importante. Cellule staminali per ricostruire le cartilagini e il tessuto osseo: due progressi in uno dei settori della ricerca più promettenti. Sulla rivista dell'Accademia delle scienze degli Stati Uniti il biologo Brian O. Diekman annuncia di essere riuscito, con un gruppo della Duke University, a trasformare fibroblasti adulti (cellule del tessuto connettivo) in tessuto cartilagineo. Si apre la porta alla cura della osteoartrite, problema molto comune nella terza età e non solo. La tecnica usata per indirizzare le cellule verso la formazione di cartilagine è quella scoperta da Shinya Yamanaka, premio Nobel per la Medicina 2012. Anche in Italia si lavora: a Firenze ricercatori dell'Università, dell'Azienda ospedaliera Meyer e di altre istituzioni stanno provando a usare cellule staminali mesenchimali nella cura dei tumori ossei infantili.

In sintesi: siamo vicini alla rigenerazione delle cartilagini e delle ossa.

 

Notizia curiosa. Ricercatori dell'Istituto nazionale di geofisica e vulcanologia (Ingv), in collaborazione con le Università di San Paolo (Istituto oceanografico), di Rio de Janeiro e del Nevada, hanno per la prima volta identificato un nuovo batterio magnetotattico, cioè sensibile al campo magnetico. La scoperta è avvenuta analizzando le acque del fiume Neponset (Massachusetts, Usa). Misura 20-50 nanometri (miliardesimi di metro: l'elica del DNA è larga 2 nanometri). E' stato battezzato Magnetobrivio blakemorei. Secondo alcuni ricercatori i batteri sensibili al campo magnetico terrestre avrebbero un ruolo nell'orientare le correnti oceaniche.


© Copyright Piero Bianucci 2012 - P. IVA 02502870013 Note legali Credits