A rivelare l'evento è stata l'individuazione dei raggi gamma (Grb) relativi all'esplosione da parte del satellite Swift della Nasa. Si tratta del più antico fenomeno cosmico mai osservato e, forse, dell'oggetto più lontano nel tempo e nello Spazio conosciuto finora. Il team internazionale di astronomi che sta studiando i Grb, di cui fanno parte due italiani dell’Istituto Nazionale di Astofisica (Inaf), ha presentato al congresso nazionale dell’American Astronomical Society (conclusosi ieri a Boston) i primi dati; lo studio sarà poi pubblicato su The Astrophysisical Journal.
Dopo la segnalazione da parte del satellite Swift, avvenuta il 29 aprile del 2009, le prime osservazioni terrestri sono state effettuate grazie ai telescopi Grond e Vlt, installati sulle Ande cilene. Subito dopo è entrato in azione anche il telescopio Gemini, sul vulcano Mauna Kea, nelle Hawaii, coordinato da Antonino Cucchiara, ricercatore italiano trasferitosi da poco a Berkeley. Per dissipare ogni dubbio sulla distanza dell'esplosione è stato chiamato in causa anche il telescopio spaziale Hubble, che ha fornito un'immagine a colori del cielo nelle vicinanze della sorgente dei Grb. Tutti i dati raccolti da questi strumenti sono stati esaminati da un gruppo di ricercatori guidato da Lorenzo Amati dell’Inaf-Iasf di Bologna; Ora i risultati sono stati resi pubblici.
L'esplosione sarebbe avvenuta esattamente 13 miliardi e 104 milioni di anni fa, quando l'Universo era ancora molto giovane. I due lampi di raggi gamma che ne sono scaturiti – ognuno della durata di una decina di secondi – hanno attraversato lo Spazio raggiungendo solo qualche settimana fa la Terra, a distanza di sei giorni l'uno dall'altro. Unificati sotto il nome di GRB 090429B, si contendono il titolo di "oggetto più lontano nell'Universo" con un altro lampo di raggi gamma chiamato GRB 090423 e con due galassie: Lehnert e Bouwens (la più quotata).
“La scoperta di un’esplosione cosmica così distante, avvenuta in un’epoca in cui l’Universo aveva meno del 4 per cento dell’età attuale, è di grande interesse per lo studio della sua storia”, ha commentato Paolo D'Avanzo dell’Osservatorio Astronomico Inaf di Brera, coatuore dello studio.
A vederlo nell’hangar 117 dell’aeroporto di Zaventem, nei pressi di Bruxelles, ciò che stupisce dell’aereo ecologico Solar Impulse HB-SIA è l’enorme apertura alare, simile a quella di un Airbus A340. Oltre 63 metri di ali ricoperte da celle solari, che si dipanano da una fusoliera esilissima, e che fanno venire in mente una libellula gigante. Come prima cosa ci si chiede “come si può volare per 26 ore consecutive chiusi lì dentro?”. Eppure è successo e, fatto ancora più straordinario, sfruttando la sola energia del Sole: l’8 luglio 2010 questo aereo, per la prima volta nella storia, ha volato nei cieli della Svizzera anche in notturna senza bisogno di carburante. Nella mente dei suoi ideatori, Bertrand Piccard e Andrè Borschberg, il viaggio doveva dimostrare le enormi potenzialità delle energie rinnovabili e aprire la strada a nuove sfide. E, infatti, il 13 maggio scorso il prototipo ha lasciato per la prima volta il territorio elvetico per raggiungere, dopo circa 13 ore, Bruxelles. Dove è atterrato giusto in tempo per la Green Week (24-27 maggio), la conferenza annuale sulla politica ambientale europea. Il prossimo obiettivo, molto più ambizioso e da realizzare entro il 2014 con un secondo prototipo, è il giro del mondo in tappe, sia diurne che notturne.
Frutto del lavoro di tecnici, ingegneri e fisici impegnati dal 2003 nella progettazione e nelle simulazioni di volo, l’eco-aereo è un concentrato di innovazione e tecnologia. Nonostante la grande apertura alare, necessaria per aumentare la superficie ricoperta di pannelli solari, HB-SIA è super-leggero grazie ai materiali in fibra di carbonio: pesa 1.600 chilogrammi, quanto una berlina, per intenderci. Il prototipo è stato progettato per massimizzare le performance aerodinamiche e ottimizzare l’accumulo di energia. È ricoperto da 12 mila celle in silicio monocristallino, la maggior parte delle quali (più di 10 mila) si trova sulle ali, mentre la restante parte è sulla coda. Sotto le ali si trovano quattro navicelle, ciascuna contenente un insieme di batterie ai polimeri di litio, che pesano in tutto 400 chili (un quarto del peso totale dell’aereo), un motore da 10 cavalli e un’elica a due pale. L’energia solare assorbita dalle celle serve in parte ad alimentare i motori e in parte a ricaricare le batterie, in modo da garantire l’autonomia di volo durante la notte. Con i 200 metri quadrati di celle fotovoltaiche e il 12 per cento di efficienza della catena propulsiva, i quattro motori raggiungono in media la potenza di 6 kilowatt, l’equivalente di quella di uno scooter.
“Solar Impulse non è stato costruito per trasportare passeggeri, ma messaggi”, ha spiegato in conferenza lo svizzero Bertrand Piccard, già noto alle cronache per aver fatto il giro del mondo in mongolfiera senza scalo, e figlio d’arte in fatto di primati (suo padre Jacques fu il primo a percorrere la fossa delle Marianne in batiscafo). “Vogliamo mostrare cosa si può ottenere usando le tecnologie pulite. Se promosse su vasta scala dai governi, queste possono ridurre la nostra dipendenza dai combustibili fossili”.
Solar Impulse, quindi, vuole essere un esempio e uno stimolo per promuovere politiche ambientali ed energetiche più coraggiose e improntate allo 'using less, live better', che è stato il motto di questa Green Week. Sul sito del progetto è possibile diventare sostenitori dell’iniziativa adottando una cella solare dell’aereo, oppure facendo scrivere il proprio nome sulla fusoliera. Intanto, il lavoro del team continua. I risultati ottenuti finora serviranno per progettare la seconda versione del monoposto, HB –SIB: l’impresa del suo giro del mondo prevede cinque scali con l’avvicendamento dei piloti, ognuno dei quali sarà impegnato in volo dai tre ai quattro giorni.
Basta guardare alle trasformazioni, spesso selvagge, delle nostre città e delle periferie per rendersi conto che il cemento e l’asfalto avanzano sempre di più, mentre scompaiono le superfici naturali. Il consumo di territorio è un fenomeno preoccupante che riguarda tutta l’Europa. Ogni anno mille chilometri quadrati di terreno, corrispondenti a un’area più estesa di Berlino, vengono sacrificati a vantaggio dell’espansione urbana e della costruzione di infrastrutture. Lo rivela il report “Overview of best practices for limiting soil sealing or mitigating its effects in EU-27”, presentato a Bruxelles nel corso della Green Week, che al tema ha dedicato una sessione. Questo assalto modifica per sempre le caratteristiche fisiche, chimiche e biologiche del suolo e si traduce in una perdita irreversibile. Per preservare questa risorsa, nell’ottica dello “using less, live better”, che è stato il tema di questa edizione della manifestazione europea, la Commissione propone un approccio basato sul “limitare, attenuare e compensare” il consumo di suolo.
In gergo tecnico si chiama “soil sealing” ed è quel processo di sigillatura o impermeabilizzazione causato dalla copertura del suolo con materiali impermeabili, dovuto appunto all’urbanizzazione e alla costruzione di infrastrutture. Questo processo modifica le funzioni del suolo provocando la perdita di terreni fertili e di biodiversità, la frammentazione dei paesaggi e, cosa ancor più grave, una ridotta capacità di assorbire e filtrare l’acqua, con il conseguente rischio di inondazioni devastanti. Secondo il report, tra il 1990 e il 2000 nell’Ue sono stati cementificati almeno 275 ettari di terreno al giorno, la metà dei quali occupati da edifici, strade e parcheggi. Negli ultimi anni c’è stato un rallentamento a 252 ettari al giorno dovuto alla crescita lenta della popolazione, ma il fenomeno resta comunque preoccupante. Tra il 2000 e il 2006 l’aumento medio di aree trasformate è stato pari al 3 per cento, con picchi del 14 per cento in Irlanda e Cipro, e del 15 per cento in Spagna. E in Italia? La situazione non è tra le peggiori: il consumo annuale di suolo è in diminuzione rispetto alla crescita della popolazione e il tasso di impermeabilizzazione è del 2,8 per cento, ma tra i territori ad alto rischio il rapporto segnala anche otto provincie italiane: Vercelli, Lodi, Verona, Piacenza, Parma, Campobasso, Matera, Catanzaro.
Un caso emblematico è proprio quello della provincia di Parma, la cosiddetta “Food Valley”, presentato alla Green Week grazie alla proiezione del film “Il suolo minacciato”. Negli ultimi anni nella Pianura Padana si sono persi migliaia di ettari di suolo agricolo e solo nella food valley parmense, dove si concentrano importanti produzioni agroalimentari, lo “sprawl” urbano (la dispersione) avanza al tasso di oltre un ettaro di suolo agricolo al giorno. “Il film nasce dalla constatazione di un problema che riguarda tutta l’Italia”, ci spiega Nicola Dall’Olio, regista del documentario. “L’agricoltura è espropriata dei suoi terreni, visti come una risorsa da sfruttare per la loro rendita immobiliare. Bisogna cambiare rotta, soprattutto considerando che le esigenze urbane potrebbero essere soddisfatte con la riqualificazione delle aree in disuso piuttosto che con nuove costruzioni”. Sullo schermo passano le interviste di esperti come Carlo Petrini di Slow Food, il climatologo Luca Mercalli e il sociologo Wolfgang Sachs, alternate alle immagini di gru, strade, capannoni, scheletri di costruzioni disseminati negli spazi verdi appena fuori le città. Una corsa all’accaparramento di suolo che non trova giustificazione: il tasso di crescita della popolazione è stabile e la situazione sociale è diversa rispetto a quella dell’urbanizzazione degli anni ‘60-70. Il motivo reale è la speculazione edilizia, “favorita dalle leggi che privilegiano lo sviluppo basato sul calcestruzzo a quello agroalimentare”. Il risultato è la comparsa sul territorio di capannoni che, dice Luca Mercalli nel film, “sono brutti, devastano e limitano la fruizione turistica e soprattutto sono vuoti, non calibrati sulle reali necessità…monumenti allo spreco che hanno sacrificato la produttività dei suoli migliori”. Come far fronte al problema? Il documentario suggerisce le possibili strade per preservare la risorsa suolo e i modelli di sviluppo urbano alternativi sulla scia delle esperienza della Germania e della Francia o di piccoli comuni come Cassinetta di Lugagnano (Mi).
Anche la Commissione Europea, in attesa di una direttiva in materia, indica le buone pratiche da seguire e propone un triplice approccio. Per prima cosa, ‘limitare’ l’impermeabilizzazione del suolo introducendo dei limiti, ottimizzando la pianificazione territoriale o ridefinendo i sussidi che incentivano le pratiche di ‘soil sealing’. In questo senso rappresentano buoni esempi quelli di Portogallo, Svezia, Spagna e Paesi Bassi, che stanno migliorando la qualità della vita e dei servizi in alcuni centri urbani per attrarre nuovi residenti e controbilanciare la dispersione territoriale. Oppure i progetti di Regno Unito, Francia, Repubblica Ceca e Fiandre, che incoraggiano lo sviluppo di nuove infrastrutture su vecchi siti industriali e commerciali dismessi. Poi bisogna ‘attenuare’ gli effetti del consumo di suolo, sostituendo l’asfalto o il cemento con superfici permeabili e costruendo tetti verdi, come stanno facendo diverse città in Germania, Danimarca e Austria. Infine, ‘compensare’ le perdite attuando misure di recupero in altre aree o con una riqualificazione di terreni già impermeabilizzati come accade in Repubblica Ceca e in Slovacchia.
Un repentino abbassamento delle temperature, compiutosi nel giro di poche decine d’anni, ancora prima che avesse inizio la Piccola Era Glaciale: solo pochi gradi in meno, quattro, ma abbastanza da mettere in crisi la sopravvivenza delle popolazioni nordiche. Secondo uno studio pubblicato su Pnas dai ricercatori della Brown University (Usa) sarebbe questa una delle cause della scomparsa dei Vichinghi dalla Groenlandia intorno al 1100 d.C.
Per studiare l’andamento delle temperature nel tempo, gli scienziati hanno prelevato alcuni campioni dal sedimento di due laghi nei pressi di Kangerlussuaq, un piccolo villaggio nella regione sud occidentale della Groenlandia, ottenendo dati climatici su un periodo complessivo di 5600 anni. Le regioni dove sono stati eseguiti i campionamenti, come spiegano gli studiosi, sono le stesse in cui vissero i Vichinghi, e ancor prima le popolazioni delle culture Saqqaq e Dorset.
Analizzando i campioni, i ricercatori hanno osservato che intorno al 1100 d.C., circa due secoli dopo l’insediamento dei Vichinghi, le temperature in Groenlandia cominciarono a diminuire in modo significativo: meno quattro gradi Celsius nel giro di soli ottanta anni. Un cambiamento che ebbe effetti devastanti e mise in crisi la sopravvivenza dei popoli nordici perché determinò una riduzione dei tempi di crescita delle coltivazioni, limitò le risorse con cui allevare il bestiame e prolungò i periodi di gelo in mare, rendendo più difficili i viaggi per il commercio. Questo, insieme allo stile di vita solitario e l’indole combattente, avrebbe dato origine alla scomparsa dei Vichinghi dai territori della Groenlandia, che si sarebbe poi concretizzata tra la metà del 1300 e gli inizi del 1400, come suggeriscono i reperti archeologici e le testimonianze scritte.
Scavando più indietro nel tempo, invece, i ricercatori hanno scoperto che la civiltà degli Saqqaq, in Groenlandia dal 2500 a.C., sperimentò per secoli oscillazioni di temperature, fino all’850 a.C. circa. Intorno a quella data infatti, il clima divenne all’improvviso più rigido, contribuendo forse alla scomparsa della popolazione e favorendo l'insediamento della cultura dei Dorset, più adattata al clima rigido.
Per più di un secolo gli astronomi di tutto il mondo si sono scervellati nel tentativo di spiegare la struttura e la dinamica delle macchie solari, regioni della nostra stella che ci appaiono più scure rispetto al resto per via di una temperatura minore (circa 5.000 gradi Kelvin). Ora, grazie ai dati raccolti dallo Swedish 1-meter Solar Telescope, un gruppo di ricercatori delle università di Stoccolma (Svezia) e Oslo (Norvegia) è riuscito a ricostruire il meccanismo che porta alla formazione di queste macchie. Lo studio, pubblicato su Science, conferma i più recenti modelli e simulazioni tridimensionali, mostrando come le macchie solari siano il prodotto del movimento di gas caldi verso l'alto e freddi verso il basso.
“Le macchie solari – spiegano gli studiosi – sono formate da un nucleo centrale scuro, detto ombra, circondato da un anello più chiaro, chiamato penombra. Se nell'ombra i filamenti magnetici fuoriescono dalla superficie del Sole, è nella penombra che la maggior parte di questi filamenti ha un moto circolare”. I filamenti, simili a delle colonne, possono essere lunghi più di 2.000 chilometri e spessi circa 150 chilometri.
I ricercatori scandinavi sono ora riusciti a dimostrare che i filamenti sono in realtà delle colonne di gas che si muovono avanti e indietro, “bucando” la superficie solare. Il movimento di questi gas, chiamato flusso convettivo, è proprio ciò che provoca le macchie solari. Il nucleo più scuro è la regione in cui le colonne di gas raggiungono la superficie del Sole e si raffreddano, per poi sprofondare nuovamente nella zona di penombra.
Il gruppo di ricerca, guidato da Göran Scharmer dell'Istituto svedese di Fisica Solare, ha utilizzato immagini scattate dallo Swedish 1-meter Solar Telescope, posizionato a La Palma, nell'arcipelago delle Canarie. Il 23 maggio del 2010 il telescopio è stato puntato su una macchia solare in particolare, per documentarne la dinamica ed eseguire analisi di spettropolarimetria. I ricercatori hanno così potuto osservare la presenza di due tipi di movimento: una serie di flussi convettivi scuri verso il basso, la cui velocità è stata stimata attorno ai 3.600 chilometri orari, e una serie di flussi convettivi brillanti, che si muovevano a velocità superiori ai 10.800 chilometri all'ora.
“È ciò che pensavamo di trovare - ha spiegato Scharmer – anche se non ci aspettavamo di riuscire a osservare direttamente questi flussi”. Nel prossimo futuro, l'obiettivo dei ricercatori sarà quello di misurare i campi magnetici collegati ai flussi convettivi, così da comprenderne meglio il funzionamento.
A prima vista potrebbe sembrare un semplice bidone alla deriva in mezzo all’oceano. Ma basta guardare con più attenzione per scoprire un vero e proprio laboratorio automatico per l’analisi delle acque. Lo ha realizzato un team coordinato da Chris Scholin, presidente ed amministratore dell’Istituto di Ricerca dell’Acquario della baia di Monterey in California (Mbari). Questo “bidone-laboratorio”, il cui nome ufficiale è Environmental Sample Processor (Esp) è stato presentato recentemente sul portale della National Science Foundation (Nsf) statunitense.
Fra i principali punti di forza di Esp vi è sicuramente la capacità di compiere analisi in situ, evitando ai ricercatori di rientrare in laboratorio dopo aver raccolto i campioni. Il cuore di ESP è infatti un sofisticato laboratorio di analisi chimiche e microbiologiche. Quando viene rilasciato in mare, il dispositivo può prelevare campioni di acqua grazie ad apposite siringhe e filtrarli per separare particelle di varie dimensioni. Inoltre, grazie a sofisticate tecniche di analisi molecolare, può evidenziare la presenza di microorganismi, tossine e persino compiere semplici analisi del Dna. Un altro grande vantaggio di questo mini laboratorio è la lunga autonomia: “Esp ha delle batterie che durano da 30 a 45 giorni, ma il nostro obiettivo è realizzare qualcosa che possa operare per sei mesi”, ha spiegato Jim Birch, direttore del Centro di ricerca per i sensori sottomarini. Secondo i ricercatori, i mari potrebbero presto essere monitorati da una fitta rete di questi dispositivi, pronti a indicarci lo stato di salute delle acque e il loro grado di inquinamento. Si potrebbe così rilevare tempestivamente la presenza di salmonella negli allevamenti ittici, salvaguardando anche la qualità del pesce che arriva sulle nostre tavole.
Anche ora le potenziali applicazioni sono innumerevoli, come ha illustrato Scholin: "Potrebbe essere stare in un centro di distribuzione dell’acqua, sulle spiagge o nel retro di un camioncino di un ispettore deputato al controllo della qualità dell’acqua”. I ricercatori del centro MBARI stanno già lavorando per il trasferimento di queta tecnologia a società no-profit e ad agenzie non governative, e nel frattempo sono al lavoro per realizzare il successore di questo “bidone-laboratorio”, che potrà persino navigare autonomamente, vigilando come un’infaticabile sentinella sulla salute del mare.
Ma di questi nuovi casi, il 70% è a basso rischio, e solo il 30% è a rischio intermedio o alto. Il risultato di questa sovradiagnosi, che in alcuni casi sfocia nel sovratrattamento, è che nel 2007 sono state eseguite 30 mila Tac alla prostata inutili, per un costo di circa 30 milioni di euro.
Il dato arriva dall’incontro “Il tumore della prostata tra diagnosi precoce, certezze scientifiche e innovative prospettive di cura”, il 26 maggio scorso a Roma, cui hanno partecipato Giario Conti, Direttore dell’Unità Operativa di Urologia dell’Ospedale Sant’Anna di Como e presidente Auro.it (Associazione Urologi Italiani) e Giacomo Cartenì, Direttore dell’Unità Operativa Complessa di Oncologia Medica dell’Ospedale Cardarelli di Napoli.
Nel nostro paese, il tumore della prostata è la forma tumorale più frequente nella popolazione maschile: secondo alcune ricerche circa 1 uomo su 7 svilupperà una malattia clinicamente evidente, ed 1 su 33 ne morirà. Tuttavia, più della metà dei tumori a basso rischio può essere definito indolente: si tratta di neoplasie asintomatiche che hanno un decorso talmente lento da essere clinicamente non significative. Oggi – spiega Conti – le ricerche nel campo della genetica, dei biomarcatori e dell’immaging ci permettono di differenziarli in modo sempre più preciso da quelli aggressivi-degenerativi”. Una volta evidenziata una neoplasia indolente, piuttosto che sottoporre il paziente all'asportazione chirurgica o alla radioterapia, è possibile inserirlo in un programma di sorveglianza attiva, monitorando continuamente lo stato di evoluzione della malattia. Così facendo, oltre la salute si cerca di salvaguardare anche la qualità della vita del malato. A questo proposito studi recenti registrano un numero elevato di casi di suicidio o infarto in seguito alla diagnosi di tumore alla prostata: gli effetti collaterali dell’intervento posso infatti essere in certi casi molto gravosi, comportare ad esempio l’impotenza e l’incontinenza croniche. La sorveglianza attiva - continua Conti - trasforma la fotografia dello screening in un film ed è un approccio efficace. Il 94% dei pazienti sottoposti non ha fatto trattamento a distanza di 16 mesi. Il fatto che da noi non prenda piede, conclude l’esperto, è un problema culturale, più che economico.
Per questo la SIUrO ha stilato un decalogo per definire con maggiore precisione il ruolo del Psa nello screening del carcinoma prostatico. Tra i punti salienti, il fatto che il rapporto benefici/danni (riduzione di mortalità cancro specifica/effetti collaterali della diagnosi e dei trattamenti) non è a tutt’oggi sufficiente a giustificare uno screening di popolazione, e che l’utilizzo improprio del test può determinare un eccesso sia di diagnosi sia di trattamenti non strettamente necessari per malattie clinicamente non significative.
A Madrid si è svolta la manifestazione contro la Giornata Mondiale della Gioventù, l’evento che raduna i fan della Chiesa Cattolica di tutto il mondo. La kermesse, finanziata per il 50% dallo stato spagnolo, e il cui costo complessivo si aggira intorno ai 50 milioni di euro, è giudicata da molti spagnoli come “inopportuna” dato il momento di crisi lavorativa ed economica che affronta il paese.
Stride vedere con che facilità lo Stato (laico) spenda 25 milioni di euro di denaro pubblico e allo stesso tempo imponga misure di austerità alla popolazione. Il pretesto usato dagli organizzatori è che “i cattolici stanno aiutando a riattivare l’economia spagnola”, ma non tutti sono d’accordo: “La Chiesa riattiva l’economia con i soldi che tolgono dalla nostra busta paga?!”, chiede uno dei manifestanti. La sfilata pacifica (organizzata da Europa Laica, “Reti Cristiane e atei liberi pensatori di Madrid”, insieme ad altre 150 organizzazioni) ha seguito il percorso autorizzato dalle autorità, con meta finale nel chilometro zero della città: la Porta del Sol (* nota a fine articolo).
Quando il corteo è giunto alla Porta del Sol ha trovato un consistente schieramento di Papa Boys che aspettavano i manifestanti (insieme alla polizia) per impedire loro l’accesso alla piazza. Una provocazione inutile e pericolosa, dato che il percorso della manifestazione era stato deciso previamente proprio per evitare scontri con i pellegrini.
Non vogliamo entrare in polemica con i tanti credenti che probabilmente stanno vivendo un’esperienza unica nella vita partecipanto a questo evento, però è triste vedere giovani cattolici incitare la polizia a intervenire per bloccare una protesta pacifica in questo modo.
Inutile dire che la polizia, invece di allontanare i Papa Boys, ha preferito caricare sui manifestanti nonostante la loro marcia fosse stata autorizzata dal Governo. Nel nome di Dio? Spero di no…
* nota: Matteo da Madrid ci fa giustamente notare che la marcia doveva passare per Porta del Sol, ma sarebbe dovuta terminare in Piazza Tirso de Molina (dove era iniziata). Grazie per la correzione
Ma allora, perché non adattare le metodologie d’indagine usate nelle telecomunicazioni allo studio di questo organo? Lo hanno fatto ricercatori del Rotman Research Institute del Baycrest Centre, in Canada, scoprendo che il tempo che intercorre tra il rilascio di un messaggio e l’altro è indicativo dell’attività delle aree cerebrali. Lo studio è pubblicato su PLoS Computational Biology.
Nelle telecomunicazioni, uno degli indicatori più significativi per valutare l’efficienza della rete è il tempo che intercorre tra la partenza di due messaggi consecutivi in corrispondenza di ogni nodo. Questo intervallo temporale, che dipende dalla natura dei dati e dal modo in cui vengono elaborati, descrive il flusso di informazioni attraverso la rete. Partendo da questo modello, i ricercatori hanno registrato con l’elettroencefalogramma (Eeg) l’attività del cervello di 56 volontari a riposo in due condizioni: a occhi chiusi e a occhi aperti. Dal momento che i picchi dell’Eeg indicano l’attività dei neuroni, possono essere considerati come i momenti in cui parte un messaggio. E di conseguenza il tempo tra due picchi può dare una misura dell'attività di una determinata area.
Analizzando gli intervalli temporali tra un invio e l’altro, è emerso che i periodi dipendono sia dalla regione cerebrale sia dalla condizione. Per esempio, in chi ha tenuto gli occhi aperti, l’intervallo nella regione occipitale - che elabora gli stimoli visivi - risultava inferiore che non in chi ha tenuto gli occhi chiusi. D’altra parte, in entrambe le condizioni si sono registrati tempi simili a livello delle regioni parietali che, presiedendo a funzioni cognitive complesse come il linguaggio, non erano attive durante la sperimentazione.
Per i ricercatori, l’intervallo di tempo tra l’invio di un messaggio e l’altro è un indicatore affidabile dell’attività cerebrale e può servire ai neuroscienziati per studiare lo sviluppo del cervello, il suo invecchiamento e le patologie che compromettono il flusso di informazioni eliminando nodi o disintegrando parte della rete.
A 10 anni dalla loro scoperta, infatti, fanno il loro ingresso nella tavola periodica degli elementi due nuovi atomi superpesanti, nelle caselle 114 e il 116. L’ Unione Internazionale di Chimica Pura ed Applicata (Iupac) e l’ Unione Internazionale di Fisica Pura ed Applicata (Iupap), infatti, hanno appena sciolto le loro ultime riserve e reso ufficiale l’entrata di questi due nuovi elementi nel regno di Mendeleev.
Il numero di massa (cioè di protoni e neutroni all’interno del nucleo) delle due new entry è, rispettivamente, 289 e 292. Li precedono il roentgenio (casella 111, peso atomico 272) e il copernicio (casella 112 e peso atomico 285), l’ultimo ad essere stato riconosciuto, nel 2009 (vedi Galileo).
Essendo superpesanti, i due elementi sono altamente instabili (radioattivi) e decadono velocemente, perdendo particelle alfa. Il 116 diventa 114 in meno di un secondo, e questo a sua volta decade nel copernicio. Questo il motivo per cui sono serviti più di dieci anni per la raccolta delle prove sulla loro esistenza, e tre anni per la revisione di tutti i dati. Ad accumulare evidenze hanno cominciato i russi e gli americani, nel lontano 1999. Bombardando il plutonio 244 (cioè con 244 protoni e neutroni) con il calcio 48, i fisici erano riusciti a creare un atomo con numero di massa di 292 (244 + 48): era il 116. Questo decadde però immediatamente in un elemento con 289 protoni e neutroni: così, in un colpo solo, ecco anche il 114.
Ricevuto il riconoscimento della comunità scientifica, ai due manca però ancora il nome; provvisoriamente si chiamano ununquadium e ununhexium. I papà russi hanno proposto flerovio per il 114, in onore del suo scopritore sovietico Georgy Flyorov, e moscovio per il 116, in onore della Oblast di Mosca.
Per la cronaca, sono attualmente in attesa di essere riconosciuti come legittimi altri tre elementi: 113, 115 e 118 (vedi Galileo). Chissà che nel 2011, Anno internazionale della chimica, non entreranno anche loro nella tavola periodica.