Trilingual World Observatory: italiano, english, română. GLOBAL NEWS & more... di Redazione
Di seguito tutti gli interventi pubblicati sul sito, in ordine cronologico.

Geologists have used temperature measurements from more than 20,000 boreholes around the world to estimate that some 44 terawatts (44 trillion watts) of heat continually flow from Earth's interior into space. Where does it come from?

Radioactive decay of uranium, thorium, and potassium in Earth's crust and mantle is a principal source, and in 2005 scientists in the KamLAND collaboration, based in Japan, first showed that there was a way to measure the contribution directly. The trick was to catch what Kamioka Liquid-scintillator Antineutrino Detector (KamLAND) dubbed geoneutrinos – more precisely, geo-antineutrinos – emitted when radioactive isotopes decay.

"As a detector of geoneutrinos, KamLAND has distinct advantages," says Stuart Freedman of the U.S. Department of Energy's Lawrence Berkeley National Laboratory (Berkeley Lab), which is a major contributor to KamLAND. Freedman, a member of Berkeley Lab's Nuclear Science Division and a professor in the Department of Physics at the University of California at Berkeley, leads U.S. participation. "KamLAND was specifically designed to study antineutrinos. We are able to discriminate them from background noise and detect them with very high sensitivity."

KamLAND scientists have now published new figures for heat energy from radioactive decay in the journal Nature Geoscience. Based on the improved sensitivity of the KamLAND detector, plus several years' worth of additional data, the new estimate is not merely "consistent" with the predictions of accepted geophysical models but is precise enough to aid in refining those models.

One thing that's at least 97-percent certain is that radioactive decay supplies only about half the Earth's heat. Other sources – primordial heat left over from the planet's formation, and possibly others as well – must account for the rest.

Hunting for neutrinos from deep in the Earth

Antineutrinos are produced not only in the decay of uranium, thorium, and potassium isotopes but in a variety of others, including fission products in nuclear power reactors. In fact, reactor-produced antineutrinos were the first neutrinos to be directly detected (neutrinos and antineutrinos are distinguished from each other by the interactions in which they appear).

The KamLAND anti-neutrino detector is a vessel filled with scintillating mineral oil and lined with photomultiplier tubes (inset), the largest scintillation detector ever constructed, buried deep underground near Toyama, Japan. Credit: KamLAND Collaboration

Because neutrinos interact only by way of the weak force – and gravity, insignificant except on the scale of the cosmos – they stream through the Earth as if it were transparent. This makes them hard to spot, but on the very rare occasions when an antineutrino collides with a proton inside the KamLAND detector – a sphere filled with a thousand metric tons of scintillating mineral oil – it produces an unmistakable double signal.

The first signal comes when the antineutrino converts the proton to a neutron plus a positron (an anti-electron), which quickly annihilates when it hits an ordinary electron – a process called inverse beta decay. The faint flash of light from the ionizing positron and the annihilation process is picked up by the more than 1,800 photomultiplier tubes within the KamLAND vessel. A couple of hundred millionths of a second later the neutron from the decay is captured by a proton in the hydrogen-rich fluid and emits a gamma ray, the second signal. This "delayed coincidence" allows antineutrino interactions to be distinguished from background events such as hits from cosmic rays penetrating the kilometer of rock that overlies the detector.

Says Freedman, "It's like looking for a spy in a crowd of people on the street. You can't pick out one spy, but if there's a second spy following the first one around, the signal is still small but it's easy to spot."

KamLAND was originally designed to detect antineutrinos from more than 50 reactors in Japan, some close and some far away, in order to study the phenomenon of neutrino oscillation. Reactors produce electron neutrinos, but as they travel they oscillate into muon neutrinos and tau neutrinos; the three "flavors" are associated with the electron and its heavier cousins.

Being surrounded by nuclear reactors means KamLAND's background events from reactor antineutrinos must also be accounted for in identifying geoneutrino events. This is done by identifying the nuclear-plant antineutrinos by their characteristic energies and other factors, such as their varying rates of production versus the steady arrival of geoneutrinos. Reactor antineutrinos are calculated and subtracted from the total. What's left are the geoneutrinos.

Tracking the heat

All models of the inner Earth depend on indirect evidence. Leading models of the kind known as bulk silicate Earth (BSE) assume that the mantle and crust contain only lithophiles ("rock-loving" elements) and the core contains only siderophiles (elements that "like to be with iron"). Thus all the heat from radioactive decay comes from the crust and mantle – about eight terawatts from uranium 238 (238U), another eight terawatts from thorium 232 (232Th), and four terawatts from potassium 40 (40K).

KamLAND's double-coincidence detection method is insensitive to the low-energy part of the geoneutrino signal from 238U and 232Th and completely insensitive to 40K antineutrinos. Other kinds of radioactive decay are also missed by the detector, but compared to uranium, thorium, and potassium are negligible contributors to Earth's heat.

Additional factors that have to be taken into account include how the radioactive elements are distributed (whether uniformly or concentrated in a "sunken layer" at the core-mantle boundary), variations due to radioactive elements in the local geology (in KamLAND's case, less than 10 percent of the expected flux), antineutrinos from fission products, and how neutrinos oscillate as they travel through the crust and mantle. Alternate theories were also considered, including the speculative idea that there may be a natural nuclear reactor somewhere deep inside the Earth, where fissile elements have accumulated and initiated a sustained fission reaction.

KamLAND detected 841 candidate antineutrino events between March of 2002 and November of 2009, of which about 730 were reactor events or other background. The rest, about 111, were from radioactive decays of uranium and thorium in the Earth. These results were combined with data from the Borexino experiment at Gran Sasso in Italy to calculate the contribution of uranium and thorium to Earth's heat production. The answer was about 20 terawatts; based on models, another three terawatts were estimated to come from other isotope decays.

This is more heat energy than the most popular BSE model suggests, but still far less than Earth's total. Says Freedman, "One thing we can say with near certainty is that radioactive decay alone is not enough to account for Earth's heat energy. Whether the rest is primordial heat or comes from some other source is an unanswered question."

Better models are likely to result when many more geoneutrino detectors are located in different places around the globe, including midocean islands where the crust is thin and local concentrations of radioactivity (not to mention nuclear reactors) are at a minimum.

Says Freedman, "This is what's called an inverse problem, where you have a lot of information but also a lot of complicated inputs and variables. Sorting those out to arrive at the best explanation among many requires multiple sources of data."

Source: PhysOrg

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa

Il Mondo ha un problema. La Società ha in realtà, un unico grosso problema, e se lo è creato con le proprie mani! E’ un problema puramente economico, riguarda infatti l’emissione del Denaro.

Tale emissione è decisa, controllata e gestita da Entità Private e non da Governi democraticamente eletti. Dopo centinaia di anni di contraffazioni e illegalità e machiavellismi, queste Entità Private sono ora giunte a controllare intere Nazioni, non più sovrane ma schiave di un meccanismo economico/finanziario conosciuto come «signoraggio» (con l’aggiunta della forse ancor più grave «riserva frazionaria»).

Molto spesso, troppo spesso, gli uomini politici di ogni Nazione chiamati a tutelare e difendere il Popolo che li ha democraticamente eletti, sono corrotti e collaborano con questi malvagi «creatori di moneta». Le leggi stesse in materia vengono create a vantaggio dei Banchieri Internazionali. Altre leggi che potrebbero aiutare il Popolo a riscattarsi da questa schiavitù, sono cambiate, alterate o semplicemente ignorate.

Il sistema bancario attuale è basato su una truffa ignobile e disumana. Questa truffa è il «signoraggio» e la «riserva frazionaria» delle Banche Centrali. I sistemi di informazione sono alterati e/o controllati dal Potere Economico dei Banchieri Internazionali Privati e nessun giornale o televisione o radio parlerà mai del «signoraggio» e/o della «riserva frazionaria».

Ci sono stati Presidenti di Stato e uomini di grandezza mondiale che sono caduti sotto i colpi della mano spietata e potente delle Entità Sovranazionali. Lincoln e Kennedy, ad esempio. Morti per aver creato denaro, a nome e in nome del Popolo, e non in servitù di Banche Centrale «agghindate di denominazioni nazionali».

Diffondere informazioni su questo argomento-tabù e contribuire a smascherare questi strangolatori delle libertà individuali e collettive è un dovere di TUTTI noi, di OGNUNO di noi. Cerca in Internet parole chiavi come «signoraggio», «riserva frazionaria», «debito pubblico». Leggi informazioni alternative e contestatrici al Sistema. Supporta la causa diffondendo questo volantino e facendo TAM-TAM delle vere-informazioni che arrivi a cogliere tramite la Rete, informazioni depurate dall’ideologia politica, asservita al Potere dei Banchieri Internazionali.


Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa

Nel 2010 aveva scosso il mondo sintetizzando la prima cellula dal genoma artificiale. Oggi, lo scienziato e businessman Craig Venter torna a far notizia sulle pagine di Nature Biotechnology. Il suo team ha infatti pubblicato uno studio in collaborazione con l' università di San Diego (Ucsd) in cui propone un metodo innovativo per sequenziare il dna fantasma dei microrganismi che sfuggono ai normali strumenti di indagine scientifica.

La nuova tecnica, la Multiple Displacement Amplification (Mda), promette di identificare e sequenziare il 90% dei geni appartenenti a tutti quei batteri che non possono essere studiati comunemente nei centri di ricerca. E non stiamo parlando solo di qualche bacillo stravagante: secondo alcune stime, il 99,9% dei microrganismi esistenti al mondo sono difficili da maneggiare. Si tratta per la maggior parte di batteri che abitano nicchie ecologiche molto particolari, come i fondali marini, i laghi sulfurei e lo stomaco umano, e sopravvivono solo all'interno dei substrati originali. Questo significa che i ricercatori non hanno la possibilità di far crescere delle colonie abbastanza grandi da estrarne dei campioni per le analisi di sequenziamento del dna.

Il metodo Mda entra in gioco proprio con l'idea di bypassare questo problema e permettere agli scienziati di leggere il genoma fantasma  dei batteri senza doverli coltivare. Il principio alla base di questa tecnica, ideata nel 2005 dal biologo molecolare Roger Lasken, prevede infatti di completare il sequenziamento del dna partendo anche da una singola cellula. In pratica, l'Mda amplifica piccoli frammenti del genoma fino a riprodurne miliardi di copie.

Ma in questo tipo di analisi, la quantità non è tutto: per fare un buon sequenziamento del genoma ci vuole, soprattutto, materiale biologico di qualità. Purtroppo, i prodotti di amplificazione ottenuti con l'Mda non sono sempre molto affidabili. Spesso i frammenti amplificati contengono molti errori, o si replicano in proporzioni diseguali, lasciando interi buchi nella sequenza dei geni. Il team di Venter si è allora rivolto a Pavel Pevzner, un bioinformatico della Ucsd che ha brillantemente risolto il problema: ha sviluppato un algoritmo capace di selezionare la migliore combinazione di frammenti del dna e assicurare dei risultati sorprendenti.

Fatto sta che gli scienziati hanno subito testato la tecnica Mda su un Deltaproteobacterium (conosciuto come SAR324), un microrganismo oceanico di cui nessuno era mai riuscito a sequenziare il genoma. L'esperimento è andato a buon fine, svelando ai ricercatori buona parte dei geni che il batterio sfrutta per sopravvivere nel suo ambiente. Il prossimo passo sarà quello di studiare altri organismi sconosciuti, ma che promettono di essere molto interessanti, come quelli che abitano l’interno del nostro corpo.


Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa

Luna este mai tânără decât se credea până acum

Principala teorie privind originea Lunii sustine că aceasta s-a format în urma unui impact masiv între un obiect cosmic de dimensiunile unei planete si planeta Pământ (aflată încă în starea de formare). Energia acestui impact a fost suficient de puternică încât Luna s-a format din materialul topit aruncat în spatiu. Pe măsură ce Luna s-a răcit, această magmă s-a solidificat în mai multe componente minerale.

O analiză a unor roci lunare despre care se crede că au ca sursă magma din care s-a format satelitul Terrei a permis oamenilor de stiintă să ofere o nouă estimare a vârstei Lunii.

Conform acestei teorii privind formarea Lunii, un tip de rocă intitulată "anortosit ferroan" (FAN) este cel mai vechi tip de rocă din crusta satelitului planetei noastre. Până acum, oamenii de stiintă nu au reusit să dateze cu succes acest tip de rocă. Acum, o echipă formată din oameni de stiintă de la Unviersitatea din Copenhaga, Universitatea Carnegie din SUA si de la Laboratorul National Lawrence Lviermore din SUA a reusit să folosească noi tehnici de datare pentru a determina vârsta unei roci de tip FAN.

Echipa de cercetători a analizat izotopii de plumb si de neodimiu din această rocă, aflând astfel că vechimea acesteia este de 4.36 miliarde de ani. Până acum, oamenii de stiintă credeau că Luna este aproximativ la fel de "bătrână" ca sistemul nostru solar, adică că are o vârstă de 4.568 miliarde de ani.

Noua vârstă estimată pentru satelitul natural al Pământului este similară cu cea a celor mai vechi minerale terestre descoperite până acum (zirconiul din vestul Australiei), sugerând că elementele cele mai vechi ale crustelor terestre si lunare s-au format în acelasi timp, imediat după impactul gigant.

"Vârsta extraordinar de tânără a acestor roci lunare arată că fie Luna s-a solidificat mult mai târziu decât se credea până acum, sau că trebuie să modificăm tot ceea ce credeam că am înteles până acum despre istoria geochimică a Lunii", sustine unul dintre cercetătorii care au efectuat acest studiu.

Sursa: Eurekalert

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa

A tool based on theoretical calculations that could aid the search for these particles has been developed by a team of researchers in Japan called the HAL QCD Collaboration.

At its most fundamental level, matter consists of particles known as quarks. Particle physicists refer to the six different types as ‘flavors’: up, down, charm, strange, top and bottom. The protons and neutrons found in the nucleus of an atom are examples of a class of particle called baryons: particles consisting of three quarks. Two baryons bound together are called dibaryons, but only one dibaryon has been found to date: a bound proton and neutron that has three up quarks and three down quarks in total.

Models that reveal the potential physical properties of dibaryons, such as their mass and binding energy, are crucial if more of these particles are to be discovered in the future. To this end, the collaboration, including Tetsuo Hatsuda from the RIKEN Nishina Center for Accelerator-Based Science in Wako, developed simulations that shed new light on one promising candidate: the H dibaryon, which comprises two up, two down and two strange quarks (Fig. 1).

An artistic impression of a bound H dibaryon, a theoretical particle consisting of two up, two down and two strange quarks. Credit: 2011 Keiko Murano

The dynamics of quarks are described by an intricate theory known as quantum chromodynamics (QCD). The simulations, however, become increasingly difficult when more particles need to be included: dibaryons with six quarks are particularly testing. Hatsuda and his colleagues used an approach known as lattice QCD in which time and space are considered as a grid of discrete points. They simplified the calculation by assuming that all quarks have the same mass, but the strange quark is actually heavier than the up and down quarks. “We know from previous theoretical studies that the binding energy should be at its largest in the equal mass case,” says Hatsuda. “If we had not found a bound state in the equal mass case, there would be no hope that the bound state exists in the realistic unequal mass case.”

The results from the collaboration’s simulations showed that the total energy of the dibaryon is less than the combined energy of two separate baryons, which verifies that H dibaryons are energetically stable. “We next hope to find the precise binding energy for unequal quark masses, which represents one of the major challenges in numerical QCD simulations,” Hatsuda adds.

More information: Inoue, T., et al. Bound H dibaryon in flavor SU(3) limit of lattice QCD. Physical Review Letters 106, 162002 (2011).
Provided by RIKEN (news : web)

Source: PhysOrg

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa

Se le temperature dell’aria smettono di salire, o lo fanno più lentamente di quanto ci aspetteremmo, non è perché sono cessate le emissioni di gas serra e la Terra ha smesso di scaldarsi. È solo che il nostro pianeta nasconderebbe, si fa per dire, parte del calore prodotto. Dove? Negli oceani, a circa 300 metri sotto la superficie delle acque, lì dove difficilmente può essere rintracciato o misurato. Un rifugio temporaneo, dal quale è comunque destinato a riemergere, prima o poi, per dare il suo contributo al riscaldamento globale. A sostenerlo è un gruppo di ricercatori australiani e statunitensi guidati da Gerald Meehl del National Center for Atmospheric Research (Ncar), in Colorado.

Lo studio, pubblicato su  Nature Climate Change, parte da una domanda: che fine ha fatto il cosiddetto calore mancante, ovvero quella quota la cui assenza ha consentito alla Terra di non surriscaldarsi troppo nonostante l’aumento delle emissioni di gas serra negli ultimi dieci anni? A suggerire un possibile nascondiglio per questo surplus erano stati, lo scorso anno, due degli autori del nuovo studio, Kevin Trenberth e John Fasullo del Ncar, secondo i quali il rifugio del calore sarebbero proprio le acque profonde degli oceani.

Per dimostrare la consistenza di questa loro ipotesi, gli scienziati hanno ora ricostruito l’andamento delle temperature su scala globale tenendo conto delle future emissioni di gas serra e considerando le interazioni tra ghiacci, acque, suolo e atmosfera tramite alcune simulazioni al computer. I ricercatori hanno così scoperto che tra il 2000 e il 2100 le temperature dovrebbero aumentare di circa 1,4°C, ma non in maniera lineare. Secondo le stime realizzate dalle simulazioni, infatti, in questo arco di tempo la Terra potrebbe sperimentare dei periodi di pausa (rallentamento o addirittura arresto nell’innalzamento delle temperature), in cui il riscaldamento globale sarebbe in un certo senso mascherato. Degli  intervalli, insomma, in cui il calore non si tradurrebbe in un aumento delle temperature globali, ma rimarrebbe imprigionato negli oceani, riscaldando di circa il 18% le acque sotto i 300 metri, confermando così le teorie di Trenberth e Fasullo. Quanto dovrebbero durare queste pause? “Circa una decina di anni prima che il calore riemerga in superficie” , ha dichiarato al New York Times Gerald Meehl.

Secondo i ricercatori sarebbero proprio le zone più nascoste a intrappolare calore, mentre le acque più superficiali subirebbero un aumento delle temperature negli intervalli tra queste pause.

Fonte: - Credit per la foto: Getty

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa

It sounds like the setup for a Hollywood thriller: scientists in a lab create a virus as contagious as the flu that kills half of those infected. We're safe as long as the virus remains locked up, but if it escapes or gets into the hands of bioterrorists, it has the potential to become a pandemic and kill millions around the world.

But this isn't the latest summer blockbuster. According to New Scientist magazine, researchers in the Netherlands studying H5N1 -- commonly referred to as the bird flu or avian influenza -- have created a strain of the virus that's easily passed between mammals, and it's just as lethal as the original virus.

Un vaccin contra gripei porcine provoacă narcolepsia!

According to the U.S. Department of Health & Human Services, the H5N1 virus has infected more than 500 people in more than a dozen countries and is known to kill around 60 percent of those that become infected.

Ron Fouchier, a researcher at the Erasmus Medical Centre in Rotterdam, led the team that successfully created the mutation. Fouchier presented the findings at a conference in Malta in September and, according to NPR, is now seeking publication of his results.

But some in the scientific community are debating whether or not that's a good idea.

"It's just a bad idea for scientists to turn a lethal virus into a lethal and highly contagious virus. And it's a second bad idea for them to publish how they did it so others can copy it," Dr. Thomas Inglesby, the director and CEO of the Center for Biosecurity at the University of Pittsburgh, told NPR.

Others, like Michael Osterholm, the director of the Center for Infectious Disease Research and Policy (CIDRAP), told Science magazine that "These studies are very important."

From the Science magazine blog Science Insider:

The researchers "have the full support of the influenza community," Osterholm says, because there are potential benefits for public health. For instance, the results show that those downplaying the risks of an H5N1 pandemic should think again, he says.

The study is currently being reviewed by the U.S. National Science Advisory Board for Biosecurity, a "federal advisory committee chartered to provide advice, guidance, and leadership regarding...biological research with legitimate scientific purpose that may be misused to pose a biologic threat to public health and/or national security."

What do you think? Should the results of the study be made public? Do the benefits outweigh the risks?


Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
By Admin (from 30/11/2011 @ 14:05:36, in it - Scienze e Societa, read 1213 times)

La notizia arriva come un fulmine a ciel sereno visto che la testata aveva appena celebrato il suo 25° anniversario con un numero speciale.

I ricercatori biomedici hanno così perso una fonte di informazioni autorevole e i giornalisti scientifici  l'ennesima pubblicazione su cui si poteva scrivere.

The Scientist è stato lanciato come un bi-settimanale nel 1986 da Eugene Garfield, fondatore dell'Institute for Scientific Information (ISI, ora Thomson Reuters). Dalla prima sede a Washington, DC, ben presto si trasferisce a Philadelphia, dove si trovava ISI, e più tardi fu trasformato in una rivista mensile stampa accompagnato dal quotidiano di notizie online.

Ma Vitek Tracz, l'imprenditore pubblicazioni scientifiche che hanno acquistato la pubblicazione e che rimane il suo amministratore delegato, ha confermato che con "grande tristezza, ... abbiamo dovuto chiudere The Scientist".

In una e-mail, Tracz scrive che l'unica ragione della chiusura è economica,  non c'è altra ragione. I nostro personale è meraviglioso e di talento, ha un pubblico che la  ama, ed è riuscita a mantenere alta editoriale e standard di produzione per molti anni.

Ma il mondo, spiega l'imprenditore promotore del movimento open-access, si sta allontanando dalle riviste tradizionali, e la nostra dipendenza dalla pubblicità ci ha portato a questo punto.

Negli ultimi anni, Tracz ha concentrato gran parte della sua attenzione sulla Faculty of 1000 post pubblication Peer Review, un tentativo alternativo di applicare la peer review in letteratura scientifica con ricercatori selezionati in una miriade di discipline.
Proprio questa settimana, infatti, il sito ha lanciato la F1000 Factor Journal, un nuovo tentativo di classificare riviste scientifiche, che offre una una alternativa alla  metrica tradizionale e controversa  conosciuta  come impact factor.


Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa

Adolescenţii care petrec mult timp pe Facebook devin mai empatici şi mai sociabili

Multitudinea de mesaje postate de studenti si de către adolescenti pe paginile personale de pe reteaua socială Facebook ar putea avea un efect pozitiv, sustin oamenii de stiintă. Astfel, cercetătorii au descoperit că timpul petrecut online pe retelele sociale poate ajuta oamenii să învete să fie mai empatici si să îsi facă mai multi prieteni în viata reală.

Din ce în ce mai multe studii indică faptul că utilizarea pe scară largă a mesajelor text, a emailurilor si a mesajelor de pe site-urile de socializare prezintă beneficii din punct de vedere social.

Mai multe cercetări recente au descoperit că o comunicare digitală poate conduce la prietenii mai bune, la mai multă onestitate, la un sentiment de intimitate în cadrul relatiilor si la un sentiment crescut de apartenentă, în plus fată de beneficiile practice pe care le au retelele de socializare.

Per ansamblu, noile tehnologii ajută la sporirea relatiilor din lumea reală, sustine Nancy Baym, un profesor de comunicare de la Universitatea Kansas. Studiile au demonstrat că oamenii interactionează cu cei mai apropiati prieteni cu ajutorul acestei tehnologii, mentinând astfel legătura strânsă dintre ei.

Unele cercetări demonstrează că tehnologiile bazate pe comunicare pot fi deosebit de utile pentru niste oameni care sunt timizi sau care suferă de anxietate atunci când se află în compania multor persoane. Oamenii de stiintă s-au concentrat pe impactul psihologic pe care pe care îl are comunicarea digitală.

Într-un studiu realizat asupra studentilor de la Universitatea New York, acestia au fost rugati să se descrie drept anxiosi sau nu si apoi au fost rugati să interactioneze între ei în grupuri speciale de câte trei persoane. În primă fază, acestia au avut o întâlnire fată în fată, după care a trebuit să poarte discutii într-o cameră privată pe internet.

Cei care au sustinut că sunt anxiosi, au declarat că s-au simtit rusinati în cadrul întâlnirilor fată în fată, dar au simtit un grad mai mare de confort atunci când au participat la discutii online.

În cadrul unui alt studiu au luat parte persoane cu un grad de anxietate ridicat si scăzut. Acestia au fost rugati să interactioneze în grupuri pe patru, atât pe internet, cât si fată în fată. S-a demonstrat astfel că persoanele anxioase au luat decizii si au condus grupul în cazul discutiilor online, pe când cei relaxati au fost liderii discutiilor fată în fată.

Larry Rosen a studiat în mod special empatia, deoarece aceasta este comunicată în mod obisnuit prin expresiile faciale si limbajul trupului. Cercetătorii au studiat zeci de pagini personale de pe reteaua socială Facebook, căutând comentarii ale persoanelor si răspunsurile pe care acestea le-au primit, în încercarea de a întelege sentimentele care au stat la baza acelor mesaje.

S-a demonstrat astfel că empatia a putut fi transmisă prin intermediul comunicării scrise. Acest lucru i-a făcut pe cercetători să studieze modul în care este exprimată empatia în viata reală.

Într-un studiu prezentat recent de American Psychological Association au fost intervievate 1.283 de persoane având o vârstă cuprinsă între 18 si 30 de ani. Acestia au fost nevoiti să declare cât timp petrec pe internet si gradul de empatie pe care îl simt fată de prietenii lor atât în mediul virtual, cât si în cel real.

Bazându-se pe rapoartele participantilor, cercetătorii au descoperit că utilizatorii au exprimat o cantitate semnificativă de empatie si în mediile online. Cu cât studentii petrec mai mult timp pe Facebook, cu atât vor exprima mai multă empatie si în viata reală, au descoperit cercetătorii.

Comunicarea digitală pare să sustină sentimentul de identitate din cadrul unui grup, declară Nicole Ellison, un profesor specialist în telecomunicatii, studiul informatiei si mass-media din cadrul Universitătii de Stat Michigan. Studentii care au raportat o stimă personală redusă si care utilizează frecvent reteaua de socializare Facebook au declarat că se simt parte a comunitătii Michigan State, fată de cei care au o stimă personală redusă, dar care nu utilizează atât de des site-ul de socializare. Studiul a fost efectuat de Nicole Ellison, iar lucrarea a fost publicată în jurnalul Computer-Mediated Communication.

Unele dintre aspectele negative ale comunicării digitale, precum folosirea acesteia în scopul intimidării, nu sunt atât de răspândite, au descoperit cercetătorii. În timp ce mesajele agresive de pe site-urile de socializare reprezintă o problemă, agresiunile din viata de zi cu zi sunt mult mai predominante.

Un sondaj realizat cu ajutorul a 3.777 de adolescenti a demonstrat că aproximativ 45% dintre acestia au fost agresati sau intimidati în ultimul an. Dar dintre cei care au declarat că au fost hărtuiti, 40% au sustinut că acest lucru s-a petrecut în mediul offline. Mai putin de 20% au declarat că agresiunea a avut loc în mediul online, la telefon sau prin intermediul mesajelor scrise, sustine Michele Ybarra, presedintele organizatiei nonprofit Internet Solutions for Kids Inc.

Două treimi dintre copiii care sustin că sunt intimidati în mediile online declară că nu sunt deranjati de acest lucru, sugerează un studiu coordonat de doctor Ybarra, care speră ca lucrarea sa să fie publicată în jurnalul Pediatrics în următoarea perioadă.

De asemenea, copiii au o sansă mai mare de a vedea programe cu continut sexual sau violentă la televizor, decât în mediul online, a încheiat Michele Ybarra.

Sursa: Wall Street Journal

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa

Well, because it's simpler and more efficient to send fishing boats out to catch the fish and bring them in. Thinking along those same lines, the Fraunhofer Center for Manufacturing Innovation has proposed a ship-mounted renewable energy-harvesting system, that would be powered by the ocean's waves.

Traditional wave-power systems, both actual and proposed, are typically permanently located out at sea. Because of this fact, they must be designed to withstand storms. They are also required to send the power that they generate back to shore via underwater cables, which can be very costly to purchase and install. Additionally, because they are permanent structures, they must meet regulatory standards and can't be located anywhere that ships might run into them.

A proposed wave-power system could be installed on ships, which would regularly return to ...

A proposed wave-power system could be installed on ships, which would regularly return to shore to deliver power to the grid (Image: Fraunhofer)

The Fraunhofer system would apparently have none of these problems. It would consist of floating buoys, that would be deployed over the sides of a 50 meter (164 foot)-long ship, on hinged arms. As those buoys proceeded to bob up and down on the waves, the arms to which they were attached would pivot up and down, generating power that would be stored on an onboard battery system. One the ship was ashore, power from those batteries could then be released into the municipal grid system, during hours of peak usage.

Because the system would be mobile (the buoys would be lifted out of the water when the ship was moving), everything could simply be taken to shore when storms were approaching. No cables would be required, and the system could be temporarily parked wherever it didn't pose a hazard and the waves were decent.

A proposed wave-power system could be installed on ships, which would regularly return to ...

The ships, which could be repurposed existing vessels, would have a storage capacity of 20 megawatt-hours. It is estimated that the system could generate electricity at a cost of 15 cents per kilowatt-hour, which is lower than the cost of existing wave power systems, that reportedly range between 30 and 65 cents.

Of course, some energy would be expended to power the ships' engines, or the engines of tug boats that would tow them.

Source: Gizmag

Articolo (p)Link Commenti Commenti (0)  Storico Storico  Stampa Stampa
Ci sono 658 persone collegate

< gennaio 2022 >

en - Global Observatory (605)
en - Science and Society (594)
en - Video Alert (346)
it - Osservatorio Globale (503)
it - Scienze e Societa (555)
it - Video Alerta (132)
ro - Observator Global (399)
ro - Stiinta si Societate (467)
ro - TV Network (143)
z - Games Giochi Jocuri (68)

Catalogati per mese - Filed by month - Arhivate pe luni:

Gli interventi piů cliccati

Ultimi commenti - Last comments - Ultimele comentarii:
Now Colorado is one love, I'm already packing suitcases;)
14/01/2018 @ 16:07:36
By Napasechnik
Nice read, I just passed this onto a friend who was doing some research on that. And he just bought me lunch since I found it for him smile So let me rephrase that Thank you for lunch! Whenever you ha...
21/11/2016 @ 09:41:39
By Anonimo
I am not sure where you are getting your info, but great topic. I needs to spend some time learning much more or understanding more. Thanks for fantastic information I was looking for this info for my...
21/11/2016 @ 09:40:41
By Anonimo


23/01/2022 @ 13:16:45
script eseguito in 987 ms