Immagine
 Trilingual World Observatory: italiano, english, română. GLOBAL NEWS & more... di Redazione
   
 
Di seguito tutti gli interventi pubblicati sul sito, in ordine cronologico.
 
 

Dispozitivul ar putea fi folosit de asemenea în medicina, permitând doctorilor sa vada tumorile din corp, fara a apela la scannerele cu raze X.

A fost creat dispozitivul ce permite telefoanelor să vadă prin pereţi şi haine

Pentru conceperea acestui cip, cercetatorii au apelat la o gama nefolosita din spectrul electromagnetic. Banda terahertz, situata în spectrul electromagnetic între radiatia infrarosie si microunde, nu a fost folosita în majoritatea dispozitivelor electrocasnice. Radiatiile terahertz pot strabate diferite materiale, fara a dauna organismului uman.

"Banda terahertz are un potential nelimitat ce ne-ar putea aduce beneficii tuturor. Am creat acest cip, facând posibil ca aceasta banda neutilizata sa fie consumatorilor si chiar sa duca la crearea unor dispozitive medicale esentiale", a declarat Dr. Kenneth O, profesor de inginerie electrica la UT Dallas.

Cu ajutorul noului dispozitiv conceput de cercetatorii americani, imaginile ar putea fi create cu ajutorul semnalelor ce opereaza în banda terahertz (THz) fara a avea nevoie de lentile, reducând astfel dimensiunile si costurile aparatului.

Astazi, numeroase dispozitive folosesc cipuri construite cu ajutorul tehnologiei CMOS (Complementary Metal-Oxide Semiconductor). "CMOS este o tehnologie necostisitoare, ce poate fi folosita pentru realizarea unui numar mare de cipuri. Combinând tehnologia CMOS cu operarea în banda terahertz înseamna ca acest cip ar putea fi introdus în cadrul unui telefon mobil, transformându-l într-un dispozitiv portabil ce poate fi folosit pentru a vedea prin obiecte", a explicat Dr. O.

Pentru a nu crea potentiale probleme în ceea ce priveste intimitatea, dispozitivul creat de echipa doctorului O poate vedea pe o distanta de maxim 10 centimetri.

Printre potentialele utilizari ale dispozitivului se numara descoperirea cuielor din pereti si autentificarea documentelor si a bancnotelor. De asemenea, acesta ar putea fi folosit pentru a identifica tumorile din corpul pacientilor sau pentru a monitoriza toxicitatea aerului.

"Sunt multe alte utilizari pe care înca nu le-am descoperit", a adaugat Dr. O.

Cercetarea a fost prezentata în cadrul International Solid-State Circuits Conference (ISSCC).

Surse: Daily Mail, ANI - via Descopera.ro

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

In ognuno di noi si cela una fabbrica di armi potentissime, potenzialmente imbattibili contro tutti i tipi di tumore. Si chiama sistema immunitario ed è la miglior difesa di cui il nostro organismo può disporre. Solo che non sempre le armi a disposizione sono sufficienti contro i nemici da combattere. Per questo un gruppo di ricercatori del San Raffaele di Milano, insieme a Telethon e a colleghi internazionali, hanno lavorato assieme per sviluppare una tecnologia in grado di aiutare il sistema immunitario nella lotta contro le leucemie. A distanza di poco tempo gli scienziati hanno messo a punto una nuova tecnica di immunoterapia cellulare adottiva, definita TCR gene Editing, in grado aiutare il nostro organismo ad attaccare e sconfiggere più efficacemente i tumori del sangue.

Questo nuovo metodo si rivelato efficace in pazienti con alcuni tipi di tumore, anche in stadio avanzato. L’ immunoterapia cellulare adottiva si basa sul presupposto che il sistema immunitario sia la risposta contro il cancro. Gli scienziati italiani non sono gli unici ad averlo capito. Negli ultimi decenni infatti sono stati condotti diversi studi clinici sperimentali basati sulla somministrazione a pazienti con tumori di cellule del sistema immunitario, chiamati linfociti T, alcuni dei quali sono in grado di riconoscere ed eliminare le cellule tumorali. Non esiste però un solo tipo di linfocita T, ma tante diverse cellule del sistema immunitario specifiche per un determinato antigene, ovvero un piccolo frammento di proteina. Ogni linfocita T riconose e attacca, quindi, tanti tipi di antigeni virali o fungini.

Grazie a questa loro specializzazione, abbiamo un’arma automatizzata in grado di riconoscere il suo nemico, per esempio un virus, e di attaccarlo. A conferire alle cellule questa specificità, è una molecola che si trova sulla superficie del linfocita T. Si tratta del cosiddetto recettore dei linfociti T ( TCR), composto da due catene legate tra loro. Ogni linfocita esprime un solo tipo di TCR, diverso da quello degli altri linfociti T presenti nello stesso individuo. I linfociti che riconoscono antigeni tumorali possono attaccare le cellule tumorali. Purtroppo sono molto rari e spesso non bastano per eliminare il tumore.

Con la nuova tecnica messa a punto dai ricercatori italiani, in uno studio pubblicato su Nature Medicine, la TCR gene Editing possiamo generare rapidamente un numero elevato di linfociti T specifici per un determinato tumore. La procedura è un’evoluzione della TCR Gene Transfer, la tecnica che permette di generare in laboratorio i linfociti anti-tumorali tramite il trasferimento genico, nei linfociti T di un paziente, dei geni di un TCR anti-tumorale, preventivamente isolato dai rari linfociti anti-tumorali.

Tuttavia, i linfociti tumore-specifici prodotti con questa tecnica differiscono da quelli naturali poiché presentano due diversi tipi di TCR, quello endogeno (presente già prima del trasferimento genico) e quello esogeno, anti-tumorale che è stato introdotto tramite la manipolazione genetica.

La presenza di due TCR diversi sulla stessa cellula comporta sia problemi di efficacia che di sicurezza. Il TCR anti-tumorale deve infatti competere con quello endogeno per accedere alla membrana cellulare e dunque per poter riconoscere il tumore. I linfociti generati con la TCR Gene Transfer sono dunque meno efficaci rispetto ai rari linfociti anti-tumorali che originano naturalmente.

Inoltre, poiché ogni TCR è formato da due catene, i linfociti prodotti esprimono quattro diverse catene che possono appaiarsi in modo scorretto formando nuovi TCR con specificità imprevedibili che possono riconoscere e danneggiare tessuti sani del paziente, provocando reazioni di autoimmunità.

Con la nuova tecnica, la TCR Gene Editing, i ricercatori hanno superato i limiti, mettendo a punto una procedura attraverso la quale è possibile, sostituire il TCR endogeno con il TCR anti-tumorale, generando un numero elevato di linfociti che esprimono alti livelli del solo TCR anti-tumorale. Questa tecnologia consente dunque di produrre, potenzialmente per ogni paziente, linfociti T efficaci e sicuri quanto quelli anti-tumorali naturali.

Questo è stato possibile grazie all’utilizzo di Zinc Finger Nucleases (ZFN), molecole artificiali in grado di riconoscere sequenze specifiche di dna (scelte a priori dagli scienziati) e di provocare tagli nella sua doppia elica. Questo taglio nel dna provocato dalle ZFN interrompe l’informazione genetica e rende la cellula incapace di produrre la proteina codificata dal gene colpito dalle ZFN. L’editing del dna con le ZFN è stato applicato alla terapia genica per la prima volta dal gruppo di Luigi Naldini, direttore dell’ Istituto San Raffaele Telethon per la Terapia Genica che ha partecipato a quest’ultimo studio,  ed è stato riconosciuto come metodo dell’anno alla fine del 2011 dalla rivista Nature.

Ora ai ricercatori non resta che preparare questa tecnica all’uso clinico. “Il passo successivo per questa strategia innovativa per l’immunoterapia del cancro, ancora in fase preclinica, è la produzione di reagenti e protocolli utilizzabili in contesto clinico”, dice Chiara Bonini coordinatrice del nuovo studio e responsabile dell’Unità di Ematologia Sperimentale dell’IRCCS San Raffaele. I ricercatori, inoltre, sperano che questa nuova tecnica possa offrire risposte importante anche per altri tipi di tumore, oltre alle leucemie.

Fonte: Wired.it

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

A team of researchers from the University of Illinois at Urbana-Champaign (UIUC) and the U.S. Department of Energy's (DOE) Argonne National Laboratory are exploring ways to design batteries that heal themselves when damaged.

"This would help electronics survive daily use—both the long-term damage caused by charging over and over again, and also the inevitable physical damage of everyday life," said Jeff Moore, a UIUC scientist on the team.

Scientists think that loss of electrical conductivity is what causes a battery to fade and die. Theories abound on the specific molecular failures; perhaps chemicals build up on electrodes, or the electrodes themselves pull away. Perhaps it's simply the inevitable stress fractures in materials forced to expand and contract repeatedly as the battery is charged and used.

In any case, the battery's storage capacity drops due to loss of electrical conductivity. This is what the team wants to address.

The idea is to station a team of "emergency repairmen" already contained in the battery. These are tiny microspheres, each smaller than a single red blood cell, and containing liquid metal inside. Added along with the battery components, they lie dormant for most of the battery's lifetime.

But if the battery is damaged, the capsules burst open and release their liquid metal into the battery. The metal fills in the gaps in the electrical circuit, connecting the broken lines, and power is restored.

Capsules could be designed to be triggered by different events—some that respond to physical damage and others that respond to overheating, for example. This would allow scientists to tailor the contents of the different capsules to repair specific situations.

Microcapsules have been manufactured in large scale since the 1950s. When you press your pencil down on carbonless copy paper, microcapsules full of ink burst open to leave an imprint on the paper layers beneath. Microcapsules full of perfume burst when you rub a scratch-and-stiff sticker.

"We hope that using microcapsules, which are a well-known technology, could make this technology easy to scale up for commercial use," Moore said.

The team's first step was to test the system in a simple system, connecting an electrode with a wire to see if the capsules could "heal" the circuit if cut. (Watch a demonstration of this in the video above).

"Our new self-healing materials can completely repair the circuit in less than a millisecond," Moore said.

The next step, which the researchers are beginning, is to test the capsules in a prototype battery. Argonne materials scientist and battery expert Khalil Amine is helping the team adapt the capsules for lithium-ion batteries. Other collaborators are UIUC scientists Nancy Sottos and Scott White.

The work is funded through the Center for Electrical Energy Storage (CEES), one of three Argonne-led Energy Frontier Research Centers (EFRCs). Established in 2009 by a special block grant from DOE, the EFRCs are five-year interdisciplinary programs focused around specific scientific challenges that are believed to be key to breakthroughs in energy technology.

The CEES is addressing the problems that limit electrochemical energy storage technologies—such as batteries and supercapacitors—for transportation, residential and commercial use.

The results have been published in a paper, "Autonomic Restoration of Electrical Conductivity", in the journal Advanced Materials. Moore's co-authors on the paper are Benjamin Blaiszik, Sharlotte Kramer, Martha Grady, David McIlroy, Nancy Sottos and Scott White.

Source: Argonne National Laboratory - via ZeitNews.org

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

Reusita cercetatorilor face posibila realizarea unor miscari voluntare complexe a unei mâini paralizate.

„Practic, «tragem cu urechea» la semnalele electrice pe care creierul le transmite în mod natural catre brat si le transmitem cu ajutorul acestui aparat direct catre muschi”, a explicat Lee E. Miller, profesor de neurostiinte la Universitatea Northwestern si totodata coordonatorul studiului publicat în jurnalul Nature.

Un nou implant creier-muşchi permite mişcarea membrelor paralizate

„Aceasta conexiune de la creier la muschi va putea fi folosita pentru a permite pacientilor paralizati din cauza loviturilor la maduva spinarii sa efectueze miscarile firesti de zi cu zi, având astfel sansa unei vieti independente”, a adaugat Miller.

Studiul a fost realizat pe maimute. Cercetatorii au înregistrat cu ajutorul unor electrozi implantati semnalele electrice transmise dinspre creier spre muschi atunci când primata strângea în mâna o minge, când o ridica si când îi dadea drumul într-un tub. Aceste înregistrari au fost folosite de oamenii de stiinta pentru conceperea unui algoritm cu ajutorul caruia au procesat semnalele electrice ale creierului, prezicând tiparele de activitate musculara generate de acestea.

Apoi, cercetatorii au folosit un anestezic local pentru a paraliza temporar bratul maimutei, dupa care au folosit o neuroproteza (un dispozitiv introdus în creier si în brat) pentru a controla bratul acesteia. Cu ajutorul unor semnale electrice transmise în 40 de milisecunde de la creier la muschi, cercetatorii au putut sa controleze maimuta pentru a apuca mingea si a completa sarcina aproape la fel de bine ca înainte ca bratul sa-i fie paralizat.

„Maimuta nu-si va putea folosi mâna perfect, dar este un proces de învatare similar celuia prin care trecem atunci când ne obisnuim cu un mouse nou sau cu o racheta de tenis noua”, a explicat Miller.

Cercetatorii afirma ca este nevoie de studii ulterioare pentru a identifica daca aceasta tehnologie va putea fi folosita si de oameni, însa un lucru este cert: reusita specialistilor de la Universitatea Northwestern ofera noi sperante persoanelor cu paralizii provocate de afectiuni ale maduvei spinarii.

Sursa: Universitatea Northwestern - via Descopera.ro

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

Ad affondare il Titanic non sarebbe stato solo quell’ iceberg. O meglio: quel blocco di ghiaccio avrebbe sì inferto il colpo mortale alla nave, ma a farla inabissare sui fondali oceanici sarebbe stata una combinazione di più fattori. Una tempesta perfetta, come la chiama Richard Corfield su Physics World, dove, a un secolo dal disastro, ripercorre la storia del famoso transatlantico, arricchendola di particolari. Come per esempio quello, poco conosciuto, sullo scafo: sarebbe stato costruito male nei cantieri navali, con prodotti scadenti, usati per risparmiare. Anche per il lussuoso Titanic. Così, dopo l’ipotesi di un coinvolgimento lunare nel disastro, riprende corpo anche quella di un problema fisico, materiale, che avrebbe reso il transatlantico più indifeso.

Perché il Titanic, cento anni dopo essere affondato, continui a far discutere è presto detto. Non era una nave qualunque. Era un gioiello (letteralmente, visto che costò 7,5 milioni di dollari) di tecnologia e di sicurezza, con dispositivi all’avanguardia, come il sistema di comunicazione via radio. Eppure quel gigante da 46mila tonnellate precipitò velocemente, forse anche troppo, sui fondali dell’oceano Atlantico nel giro di neanche tre ore. Il motivo?

Non uno solo. Innanzitutto, l’elevata velocità di crociera tenuta dal capitano Edward John Smith malgrado la presenza (forse segnalata) di iceberg in quelle acque. In secondo luogo, la mancanza di un adeguato numero di scialuppe (sebbene Corfield faccia notare come questo fosse addirittura superiore a quello richiesto dalla legge). In terzo luogo, i problemi di comunicazione via radio, che avrebbero rallentato i soccorsi. Infine, le difficoltà di avvistamento del pericolo, per mancanza di binocoli, e le eccezionali maree verificatesi in quel periodo. Oltre a questi elementi già analizzati, però, ci sarebbero stati almeno altri due fattori fondamentali. Primo fra tutti la fragilità dello scafo, messa in luce dalle analisi effettuate sul relitto compiute dopo la sua scoperta da parte del sottomarino Alvin, e da quelle realizzate sui documenti storici del luogo in cui il Titanic venne assemblato, nei cantieri navali della Harland and Wolff di Belfast, nell’Irlanda del Nord.

A compiere le analisi furono, tra gli altri, due metallurgisti, Tim Foecke del National Institute of Standards and Technology (Usa) e Jennifer Hooper McCarty, della Johns Hopkins University, intorno alla metà degli anni Duemila. Stando a quanto riporta Corfield, quanto scoprirono i due esperti avrebbe avuto un ruolo fondamentale nell’affondamento del Titanic: venne alla luce che i rivetti (i sistemi meccanici utilizzati per tenere unite le lamiere) usati nella costruzione della nave non erano tutti della stessa qualità, né distribuiti uniformemente sulla superficie dello scafo.

In particolare quelli della prua e delle zone posteriori erano più scadenti –usati forse per risparmiare - e messi a mano (probabilmente per le difficoltà nell’utilizzare i sistemi meccanici nelle zone curve, come prua e poppa).

E proprio la cattiva qualità dei rivetti avrebbe contribuito ad affondare il Titanic, visto che avrebbe reso le lamiere – già realizzate in materiale non adatto alle temperature di quelle acque - meno resistenti, e più soggette ad aprirsi. Questo avrebbe determinato l’ingresso dell’acqua in sei dei sedici compartimenti stagni della nave, due in più del numero massimo sostenibile per non far affondare la nave.

Ma insieme ai problemi materiali di costruzione, ci sarebbero state anche le congiure climatiche a svolgere un ruolo fondamentale nel disastro del Titanic. Accanto all’ipotesi di una superluna, che a sua volta avrebbe determinato eccezionali maree e influenzato il cammino degli iceberg fino a metterli sulla rotta del transatlantico, c’è infatti quella di un muro di ghiaccio creato dall’incontro tra due correnti, la corrente del Golfo e quella del Labrador. Come spiega Richard Norris dello Scripps Institution of Oceanography di San Diego: “Nel 1912 fu un’estate insolitamente calda nei Caraibi e perciò la corrente del Golfo fu particolarmente intensa quell’anno. Dal punto di vista oceanografico, il risultato di tutto questo fu che gli iceberg si concentrarono nel luogo della collisione”. Nello specifico, la differenza di temperatura tra le due correnti avrebbe favorito l’allineamento dei blocchi di ghiaccio: un vero e proprio muro contro il quale si sarebbe trovato poi il Titanic.

Lo studio entra quindi nel filone di notizie che stanno spopolando sul centenario dell'affondamento del translatantico. Tra le più curiose un' iniziativa su Twitter. Sulla piattaforma di microblogging c'è infatti la diretta del viaggio, come se il viaggio fosse nel 2012: i follower sono già oltre i 12mila.

Fonte: Wired.it

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

No matter how high the energy, the little negative particles won't break apart. But that doesn't mean they are indestructible.

Using several massive supercomputers, a team of physicists has split a simulated electron perfectly in half. The results, which were published in the Jan. 13 issue of Science, are another example of how tabletop experiments on ultra-cold atoms and other condensed-matter materials can provide clues about the behavior of fundamental particles.

In the simulations, Duke University physicist Matthew Hastings and his colleagues, Sergei Isakov of the University of Zurich and Roger Melko of the University of Waterloo in Canada, developed a virtual crystal. Under extremely low temperatures in the computer model, the crystal turned into a quantum fluid, an exotic state of matter where electrons begin to condense.

Many different types of materials, from superconductors to superfluids, can form as electrons condense and are chilled close to absolute zero, about -459 degrees Fahrenheit. That's approximately the temperature at which particles simply stop moving. It's also the temperature region where individual particles, such as electrons, can overcome their repulsion for each other and cooperate.

The cooperating particles' behavior eventually becomes indistinguishable from the actions of an individual. Hastings says the phenomenon is a lot like what happens with sound. A sound is made of sound waves. Each sound wave seems to be indivisible and to act a lot like a fundamental particle. But a sound wave is actually the collective motion of many atoms, he says.

Under ultra-cold conditions, electrons take on the same type of appearance. Their collective motion is just like the movement of an individual particle. But, unlike sound waves, cooperating electrons and other particles, called collective excitations or quasiparticles, can "do things that you wouldn't think possible," Hastings says.

The quasiparticles formed in this simulation show what happens if a fundamental particle were busted up, so an electron can't be physically smashed into anything smaller, but it can be broken up metaphorically, Hastings says.

He and his colleagues divided one up by placing a virtual particle with the fundamental charge of an electron into their simulated quantum fluid. Under the conditions, the particle fractured into two pieces, each of which took on one-half of the original's negative charge.

As the physicists continued to observe the new sub-particles and change the constraints of the simulated environment, they were also able to measure several universal numbers that characterize the motions of the electron fragments. The results provide scientists with information to look for signatures of electron pieces in other simulations, experiments and theoretical studies.

Successfully simulating an electron split also suggests that physicists don't necessarily have to smash matter open to see what's inside; instead, there could be other ways to coax a particle to reveal itself.

Source: ScienceDaily - via ZeitNews.org

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

The new map of the universe that is in full color, covers more than one quarter of the entire sky, and is full of so much detail that you would need five-hundred-thousand high-definition TVs to view it all. The map consists of more than one-trillion pixels measured by meticulously scanning the sky with a special-purpose telescope located in New Mexico. This week, at the annual meeting of the American Astronomical Society in Austin, Texas, the SDSS scientists announced results of four separate studies of this new map that, taken together, provide a history of the universe over the last six-billion years.

"This map of the universe, constructed from observations over the past decade, is an unprecedented view of the distribution of stars, galaxies, and quasars, and allows us to trace the evolution of the constituents of the universe over vast swaths of cosmic time," said Donald Schneider, head of Penn State's Department of Astronomy and Astrophysics, the SDSS survey coordinator, and a coauthor on all four studies. Two additional department members, Distinguished Professor Niel Brandt and Assistant Professor Suvrath Mahadevan, are participants in the SDSS.

The final version of the SDSS map was published online last year and has been viewed more than a million times by astronomers, students, and citizen scientists from all over the world, and it has been studied in depth by international teams of scientists from the SDSS collaboration.

The scientific results announced this week are based on an investigation of the clustering of galaxies all over the sky. "The galaxies we see today give us clues to the history of our universe," says Shirley Ho, an astrophysicist at Lawrence Berkeley National Laboratory (LBL) and the Bruce and Astrid McWilliams Center for Cosmology at Carnegie Mellon University, who was the lead author of one of the papers. "The way galaxies cluster together today can tell us two things. First, galaxy clustering can provide a measuring stick to see how the universe has expanded over time. Second, we can use that information to calculate exactly how much matter the universe contains, and what fraction consists of ordinary matter, dark matter, dark energy, and neutrinos."

The other three papers explore various pieces of the universe in more detail. A team led by Hee-Jong Seo of the Berkeley Center for Cosmological Physics at LBL and the University of California Berkeley compared the observed clustering of nearby galaxies to those in the early universe to obtained a detailed picture of the universe's expansion, while a team led by Roland de Putter of the University of Barcelona used the clustering data to determine the mass of the neutrino, a subatomic particle that only recently was proven to have any mass at all. None of these results would have been possible without the work of a team led by Ashley Ross of the University of Portsmouth (UK), who carefully studied how other effects, such as the presence of stars in our galaxy, affect these conclusions.

The first step in the research was to identify 900,000 "luminous galaxies" seen by the SDSS -- so-called because they shine much brighter than typical galaxies, meaning that they can be seen at great distances across the universe. "By covering such a large area of sky and working at such large distances, these measurements are able to probe the clustering of galaxies on incredibly vast scales," says Martin White, a member of the research team based at Lawrence Berkeley National Laboratory and the University of California Berkeley.

The luminous galaxy measurements were used by Ross's team to determine what additional factors needed to be taken into account. "Because we are looking out at the universe from one place -- the Earth -- we don't always get a clear picture of what the universe as a whole looks like," says Ross. "We have to carefully consider what that means, to make sure that we don't mistake an accident of our Earthbound view for the true structure of the universe."

Armed with the proper estimates of how luminous galaxies cluster, the researchers compared the estimates for the clustering of nearby galaxies with those much farther away. "This analysis is one of the most trustworthy ways to measure dark energy," Seo says. "The imprint of sound waves in the early universe leaves a clear signature on the clustering of galaxies known as baryon acoustic oscillation. By comparing the size of this feature, seen in the cosmic microwave background just 300,000 years after the Big Bang, to that measured by SDSS-III for galaxies 7-11 billion years later, we can measure how the universe has expanded over that time and can learn about the nature of dark energy."

By comparing the distances to galaxies with how much the universe has expanded since light left those galaxies, astronomers can learn more about the nature of the mysterious dark energy currently driving the increasing rate of that expansion. "These studies allow us to look back six-billion years, to a time when the universe was almost half as old as it is now," said Antonio Cuesta of Yale University, a key member of all four research teams. Among the results: assuming the most widely accepted and likeliest cosmological model, the researchers found that dark energy accounts for 73 percent of the universe, with a margin of error of only two percent.

The SDSS's map covers almost unimaginably large scales but, amazingly, it also offers insights into the almost unimaginably small. The universe is full of tiny particles called neutrinos, the by-products of the nuclear reactions that make stars shine. Many trillions of the tiny particles pass harmlessly through the Earth every second. When initially discovered, it was believed that neutrinos were massless. Recent work by particle physicists have demonstrated that the neutrino has a small mass, but they have been able to place only an upper limit on this value.

Astronomy offers another approach to determining the mass of this ubiquitous subatomic particle. A team led by Roland de Putter of the University of Valencia in Spain examined the SDSS's map to estimate the largest neutrino mass consistent with the universe we see. "One of the greatest laboratories for particle physics is the universe itself," de Putter says. The team's study pinpointed the largest possible neutrino mass at less than a millionth of the mass of an electron -- a better constraint by a factor of ten than can be offered by traditional particle-physics methods.

The four papers announced this week fit together to help in understanding the history of the universe in unprecedented detail. But even more detail is still to come. Later this year, the SDSS will publish Data Release 9, which will include highly accurate distance measurements to many galaxies, substituting these accurate measurements for the estimates used in the four new studies.

"For each and every one of our million galaxies," Cuesta says, "we will replace its estimated distance with a very precise measure. Our upcoming map will bring the universe into sharp focus." Seeing the universe in sharp focus will almost certainly help advance our understanding of the whole universe -- from the very large to the very small.

Source: Pennsylvania State University - via ZeitNews.org

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

Tot mai multe studii vin sa demonstreze ca realizarea faptului ca suntem muritori ne poate face mai toleranti. Mai mult, studiul reliefeaza faptul ca si gândirea non-constienta asupra acestui subiect, aparuta în urma unei plimbari printr-un cimitir, poate fi benefica.

Studii anterioare sustin ca reflectia asupra mortii este distructiva si periculoasa, alimentând comportamentul violent. Psihologia sociala sustine ca teoriile managementului terorii (TMT) arata ca modul de comportare este motivat în mare parte de teama de moarte. Conform acestor teorii, simbolurile care creeaza viziuni culturale asupra lumii sunt protejate cu înversunare ca reprezentari ale lumii reale. TMT sustin ca atunci când oamenilor li se aminteste de moarte, ei aplica mai usor aceste simboluri, iar acest fenomen poate determina aparitia actelor de violenta si chiar a razboaielor.

De ce moartea ne poate face mai buni?

Din acest motiv, autorul raportului, Kenneth Vail de la Universitatea Missouri sustine ca pâna acum "a existat doar o întelegere minimala a faptului ca fenomenul de constientizare a mortii ar putea motiva atitudini si comportamente benefice care pot alimenta starea de bine".

Autorii noilor cercetari s-au bazat pe un studiu din 2008 realizat de Matthew Gailliot asupra psihologiei personalitatii, în care era testat modul în care existenta unui cimitir în apropiere afecteaza dorinta oamenilor de a-i ajuta pe straini. "Cercetatorii au emis ipoteza ca, daca valoarea culturala a întrajutorarii era importanta pentru oameni, atunci constientizarea mortii poate amplifica dorinta de a-i ajuta pe ceilalti" a declarat Vail.

Oamenii de stiinta au observat oameni care treceau pe lânga un cimitir si persoane care se aflau pe o strada laturalnica, de unde cimitirul nu putea fi observat. Pe lânga trecatori existau figuranti care vorbeau fie despre ajutorare, drept o valoare culturala, fie despre alte subiecte. La câteva secunde dupa ce indivizii treceau de acesti figuranti, o tânara îsi scapa caietul pe jos.

Cercetatorii au analizat modul în care oamenii reactionau si daca o ajutau pe straina, în functie de context. Rezultatele au indicat ca în conditiile în care cei din jur vorbeau despre ajutorare ca valoare, cei din apropierea cimitirului erau mult mai dispusi sa ajute un strain, în comparatie de cei aflati pe o strada obisnuita. "

Alte experimente, atât de teren, cât si de laborator, au replicat aceste constatari, care arata ca "gradul de constientizare a mortii poate favoriza toleranta, egalitarismul, compasiunea, empatia si pacifismul", a adaugat Vail.

Un studiu similar realizat în 2009 de Zachary Rothschild de la Universitatea din Kansas a evidentiat ca o constientizare a decesului îi poate motiva pe fundamentalistii religiosi americani si iranieni sa afiseze compasiune fata de membrii altor grupari religioase, atunci când textele religioase subliniaza toleranta drept valoare.

De asemenea, gândul ca într-o zi vom muri ne poate ajuta sa devenim mai sanatosi. Studii recente au aratat ca atunci când oamenii îsi amintesc ca nu sunt nemuritori tind sa faca alegeri mai sanatoase. În aceasta privinta, o cercetare realizata de D.P. Cooper, în 2011, a demonstrat ca femeile au fost mult mai dispuse sa îsi faca controale medicale dupa ce li s-a expus riscul de deces.

Sursa: Telegraph - via Descopera.ro

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

Sarà possibile esplorare 150 musei in più di 40 paesi, per un totale di 30mila opere digitalizzate!

La grande biblioteca del mondo che Google sta pazientemente catalogando, da oggi sarà più vasta. E avrà i suoi saloni d’arte personalizzabili, sul modello delle grandi stanze dove i nobili del Settecento raccoglievano il meglio delle loro collezioni artistiche. Così il progetto Google Art Project, lanciato dal gigante di Mountain View nel febbraio del 2011 per esplorare i più famosi musei del mondo, oggi raggiunge la sua seconda fase, arricchendosi di oltre 30mila opere d’arte e 150 musei in 40 paesi, tutti esplorabili nei dettagli. Google ha appena annunciato di aver espanso la sua collezione artistica, grazie a fotografie ad altissima risoluzione (Gigapixel) e a 360°, non solo di dipinti, sculture e oggetti museali, ma anche di graffiti di strada brasiliani, arti decorative islamiche, antiche opere rupestri africane.

Fra i luoghi d’ arte più particolari, tutti percorribili grazie alla tecnologia di Street View, ci sarà l’ufficio del Presidente degli Stati Uniti. Anche l’Italia ha contribuito ad ampliare la raccolta di Google: i Musei Capitolini di Roma, fondati da Sisto IV nel 1471 per conservare ed ammirare il glorioso passato culturale della Città immortale, sono entrati a far parte del progetto, dopo gli Uffizi di Firenze. Restando comodamente a casa, sarà possibile sbirciare fra i serpenti del Busto di Medusa, capolavoro di Gian Lorenzo Bernini, entrare nella fastosa Aula degli Orazi e dei Curiazi affrescata da Giuseppe Cesari e quasi sfiorare la famosa Lupa Capitolina di bronzo che allatta Romolo e Remo.

Il Google Art Project si arricchisce di nuove funzioni. Con Esplora e Scopri i visitatori virtuali potranno ricercare le opere per collezione ed artista, visualizzando tutte le informazioni necessarie attraverso schede di approfondimento. E grazie alla funzione La mia galleria, tutti potranno creare la propria playlist museale: uno strumento progettato anche in funzione didattica.

Non mancherà la versione del Google Art Project per i tablet. Si partirà con quella destinata ad Android per poi creare, dopo il lancio, anche l'applicazione per la concorrenza.

Fonte: Wired.it

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 

It’s an important step forward in the effort to build the future ITER reactor.

Scientists have achieved a milestone: they have managed to stop the growth of instabilities inside a nuclear fusion reactor. How? Here’s a look at this energy source, which despite being challenging to control, is nevertheless extremely promising.

Nuclear fusion is an attempt to reproduce the energy of the Sun in an Earth-based reactor system. When gas is heated to several million degrees, it becomes plasma. Sometimes in the plasma, an instability will appear and grow large enough to perturb the plasma, making it vibrate despite the presence of the magnetic field in which it is contained. If the plasma touches the walls of the reactor, it will cool rapidly and create large electromagnetic forces within the structure of the machine.

The challenge is to reduce the instabilities deep within in the interior of the plasma so that they don’t amplify, while at the same time allowing the reactor to continue to function normally. Thus it is necessary to work within the specific configuration of these fusion reactors, where the plasma is strongly confined by a magnetic field. By adjusting an antenna that emits electromagnetic radiation, physicists from EPFL’s Center for Research in Plasma Physics were able to quench the instabilities when they appear, in the precise region where they are forming, and without perturbing the rest of the installation.

From theory to practice

The physicists first conducted simulations to verify the extent to which specific radiation frequencies and locations of application would suppress the growth of instabilities. Then they carried out tests to confirm their calculations. The beauty of their approach is that they were able to use antennas that are used as part of the system to heat the plasma, and that are already present in the Joint European Torus (JET), the largest reactor currently in use. Surprisingly, the simulations and the tests showed that heating and instability suppression can be combined, by aiming the radiation slightly off-center in the plasma.

The next step will be to add a detector system that will make it possible to neutralize instabilities in real time over longer time periods. These improvements can then be implemented in the ITER fusion reactor, currently in development in Southern France.

Source: Ecole Polytechnique Federale de Lausanne - via ZeitNews.org

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
 
Ci sono 4471 persone collegate

< aprile 2024 >
L
M
M
G
V
S
D
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
         
             

Titolo
en - Global Observatory (605)
en - Science and Society (594)
en - Video Alert (346)
it - Osservatorio Globale (503)
it - Scienze e Societa (555)
it - Video Alerta (132)
ro - Observator Global (399)
ro - Stiinta si Societate (467)
ro - TV Network (143)
z - Games Giochi Jocuri (68)

Catalogati per mese - Filed by month - Arhivate pe luni:

Gli interventi piů cliccati

Ultimi commenti - Last comments - Ultimele comentarii:
Now Colorado is one love, I'm already packing suitcases;)
14/01/2018 @ 16:07:36
By Napasechnik
Nice read, I just passed this onto a friend who was doing some research on that. And he just bought me lunch since I found it for him smile So let me rephrase that Thank you for lunch! Whenever you ha...
21/11/2016 @ 09:41:39
By Anonimo
I am not sure where you are getting your info, but great topic. I needs to spend some time learning much more or understanding more. Thanks for fantastic information I was looking for this info for my...
21/11/2016 @ 09:40:41
By Anonimo


Titolo





16/04/2024 @ 16:55:01
script eseguito in 883 ms