Immagine
 Trilingual World Observatory: italiano, english, românã. GLOBAL NEWS & more... di Redazione
   
 
\\ Home Page : Storico : it - Scienze e Societa (invert the order)
Di seguito gli interventi pubblicati in questa sezione, in ordine cronologico.
 
 

Uno dei suoi disegni più noti, quello dell' Uomo Vitruviano, Leonardo da Vinci potrebbe averlo copiato da un suo collega e amico, Giacomo Andrea da Ferrara. Copiato, in realtà, è una parola forte: sarebbe forse più corretto dire che i due stavano studiando insieme l'opera di Vitruvio, De Architectura, e che Giacomo Andrea ne stava realizzando una copia illustrata. In un incontro, tra il 1490 e il 1498, avrebbero discusso insieme di come tradurre in immagine il concetto dell' uomo ideale, il microcosmo, inscritto sia in un cerchio (simbolo del divino) sia in un quadrato (simbolo del terreno).

E Giacomo Andrea avrebbe mostrato all'amico i suoi schizzi, come riporta lo Smithsonian Magazine. Quel che è certo è che esiste un altro disegno dell'Uomo di Vitruvio molto, molto simile a quello di Leonardo. Il resto, invece, sono ipotesi, seppur convincenti e supportate da diversi dati raccolti dall'architetto  Claudio Sgarbi. Nel 1986 Sgarbi aveva ritrovato, nella Biblioteca Comunale Ariostea di Ferrara, quel manoscritto illustrato, anonimo, dimenticato per secoli, copia dell'opera di Vitruvio. La ciliegina sulla torta è stato scoprirvi, nel 78esimo foglio, un disegno che ricorda incredibilmente quello di Leonardo: un tesoro nel tesoro.

Dopo anni di studi, Sgarbi crede che l'opera sia da attribuire, per l'appunto, a Giacomo Andrea da Ferrara (la sua analisi, già presentata a Vicenza nel 2010, sarà ora pubblicata in un saggio accademico dal Centro Studio Andrea Palladio). “ Mi sono reso conto di alcune straordinarie coincidenze tra il disegno presente nel manoscritto e quello di Leonardo, a partire dalle dimensioni”, ha detto Sgarbi a Wired.it: “ per esempio, la lunghezza del lato del quadrato è quasi identica: 195 millimetri l'uno, 192 l'altro. Sulla base di queste coincidenze, non solo formali, ho rivisto un'ipotesi che avevo già preso in considerazione tempo prima: che il manoscritto fosse di Giacomo Andrea". Il motivo? “ Luca Pacioli, matematico, scienziato e artista contemporaneo dei due, in un suo scritto rivela che Leonardo e Giacomo Andrea erano gli unici architetti milanesi (Leonardo in quegli anni viveva nella città lombarda, nda) intervenuti alla presentazione del suo libro De Divina Proportione e che i due erano amici fraterni”, racconta ancora Sgarbi. Ci sono poi altre corrispondenze che avallano l'ipotesi: elementi presenti nelle opere di Leonardo che compaiono solo nel manoscritto, per esempio.

L'idea che sia Leonardo ad aver preso spunto dall'amico, e non viceversa, si deve invece al fatto che il disegno del manoscritto è pieno di ripensamenti, cancellazioni, tentativi, mentre quello vinciano è come se fosse già una bella copia: uno dei più accurati tra quelli che il maestro ci ha lasciato.

Che le cose siano andate così è dunque probabile: “ Io ne sono convintissimo, e anche molti altri studiosi, che si sono detti sorpresi ed entusiasti”, conclude Sgarbi.

La prova finale, però, può venire solo dal ritrovamento di un manoscritto autografo di Giacomo Andrea da Ferrara; nulla di suo, purtroppo, sembra essersi salvato. Quando, nel 1499 i francesi invasero Milano, infatti, Leonardo riuscì a mettersi in salvo, mentre Giacomo Andrea, per la sua fedeltà a Ludovico il Moro, Duca di Milano, fu trucidato. Così la sua memoria si è persa per lungo tempo, insieme alle sue opere.

Fonte: Wired.it

 

Un’ossessione tutta americana. Ken Alder, autore di The Lie Detectors, chiama così l’invenzione made in Usa della macchina della verità. E anche se è innegabile che l’America sia la patria della discussa e controversa invenzione, spulciando nella storia si scovano anche protagonisti italiani, come il fisiologo Angelo Mosso e il criminologo Cesare Lombroso. Ma molto tempo prima ci avevano già pensato i cinesi a inventare una rudimentale macchina della verità.

Più che rudimentale era essenziale: appena un pugno di riso secco. Nell’antica Cina, per capire se una persona stesse mentendo si metteva in bocca del sospettato un pugno di riso, gli si facevano le domande necessarie a risolvere il caso, e quindi lo si invitava a sputare il rospo, anzi il riso, che veniva poi analizzato. L’idea infatti era che uno stato di ansia o di paura, determinato dal tentativo di mascherare un fattaccio con le bugie, determinasse una diminuzione della salivazione: così anche il riso restava secco.

Le prime macchine Come una visita dal dottore Elettrodi

La storia però non si ferma qui. In Africa, per esempio, si racconta di uova rivelatrici di menzogna: si facevano passare di mano in mano, e chi le rompeva (per il panico) era quello che aveva qualcosa da nascondere. Per scoprire le adultere, nel Medioevo bastava invece poggiare un dito sul polso, pronunciare il nome del presunto amante, e registrare le variazioni del battito.

Tornando alla storia italiana, si fa risalire alla fine del Diciannovesimo secolo il pletismografo di Angelo Mosso, che serviva in realtà a misurare le risposte fisiologiche dell’organismo (variazioni nella respirazione e nella circolazione) alle diverse emozioni, come la paura. Sarebbe stato Cesare Lombroso a trasformare la macchina in uno strumento di criminologia per stabilire se qualcuno stesse mentendo, usando l’ idrosfigmografo, capace di rivelare cambiamenti nel battito e nella pressione nei sospettati. Ma il contributo italiano alla storia vede anche altri protagonisti: Vittorio Benussi agli inizi del Ventesimo secolo metteva in relazione il tempo di inspirazione ed espirazione con il sospetto di menzogna (grazie allo pneumografo). Per il resto la macchina della verità è tutta americana.

Furono infatti gli statunitensi a prendere la cosa sul serio, forse anche troppo, usandola come strumento di indagini. Il primo esempio di una reale macchina della verità – ovvero che combinasse insieme tutti i diversi parametri per rivelare cambiamenti fisiologici potenzialmente legati a specifici stati d’animo – è quello dello studente di medicina arruolato nel dipartimento di polizia di Berkeley (California), John A. Larson, nel 1921, ispirato dai lavori dello psicologo William Moulton Marston. Proprio perché combinava insieme diverse letture venne ribattezzato un poligrafo, capace di monitorare continuamente pressione, battiti e respirazione.

La sua macchina, un insieme di fili e tubicini, permetteva anche di registrare (con un ago che lasciava una traccia su un foglio di carta affumicata) le risposte del sospettato, e di analizzarle anche in un secondo momento.

Appena un anno dopo, nel 1922, Larson avrebbe prodotto un erede della sua invenzione: il detective Leonarde Keeler. A differenza di Larson - che presto cominciò a mettere in discussione l’affidabilità del sistema - Keeler fu appassionato da quell’intrigo di fili, creando poi il suo poligrafo (cui aggiunse lo psicogalvanometro, per la misura delle variazioni della resistenza elettrica della pelle) e diventando il più prolifico esaminatore di macchine della verità, tanto da guadagnarsi il titolo di padre della moderna poligrafia. Avrebbe messo mano alla sua macchina migliaia di volte, la prima il 2 febbraio 1935. Quella volta, a essere condannati per aggressione, anche grazie alle prove della macchina della verità, furono due criminali del Wisconsin. Prove oggi lasciate per lo più fuori dai tribunali, considerata l’ inaffidabilità dell’ ossessione americana.

Fonte: Wired.it

 

Non sarà certo questa la scoperta che ci permetterà di leggere i pensieri degli altri esseri umani, ma di sicuro è un grande passo in avanti verso la comprensione del linguaggio. Il merito va al team di ricerca guidato da Brian Pasley,neurologo dell' Helen Wills Neuroscience Institute di Berkeley, che ha decodificato alcuni stimoli cerebrali alla base dell'ascolto. In questo modo, un giorno forse sarà possibile riprodurre in modo artificiale le parole percepite nella testa delle persone.

Tuttavia, come spiega Scientific American, questo non significa che saremo in grado di leggere anche i pensieri elaborati dal cervello stesso. Per l'esattezza, lo studio pubblicato su PLoS Biology dall'equipe di Pasley riguarda un algoritmo capace di tradurre in suoni gli stimoli cerebrali innescati dalle parole percepite da 15 volontari. Il test prevedeva di sottoporli all'ascolto di brevi parole – a volte inventate – come “ jazz”, “ cause” e “ fook” e vedere quali parti del loro cervello si attivassero.

Per registrare l'attività cerebrale, Pasley ha sfruttato elettrodi connessi direttamente alla superficie della corteccia uditiva. Si tratta di una procedura molto sofisticata resa possibile dal fatto che tutti i partecipanti dovevano comunque sottoporsi a interventi neurochirurgici per il trattamento di epilessia o tumori. Ogni volta che un volontario percepiva una parola, il computer registrava i segnali percepiti dal cervello e li elaborava nel tentativo di convertirli in un suono simile.

Ebbene, dai ripetuti esperimenti è emerso che esistono zone cerebrali deputate all'ascolto esclusivo di alcune frequenze sonore. Una sorta di mosaico neurale sensibile a uno spettro sonoro che va da 200 a 7.000 Hertz. Inoltre, sembra che per adesso l'algoritmo del team di Pasley sia in grado di riprodurre con più facilità suoni vocalici molto semplici. Così, prima di arrivare a sviluppare uno strumento di ascolto più sofisticato, i ricercatori dovranno valutare quali sono i contributi di altre aree che entrano in gioco nel momento in cui il cervello percepisce le parole.

Infatti, nonostante i volontari fossero perfettamente in grado di comprendere i suoni uditi durante i test, i dati estrapolati dalla corteccia uditiva non sono stati sufficienti a crearne una copia perfetta. Dopo tutto, come hanno dimostrato diversi studi condotti durante il coma farmacologico indotto dall' anestesia, le zone del cervello che percepiscono e codificano il significato delle parole agiscono in modo indipendente tra loro. In una prospettiva futura, studi simili a quelli di Pasley potrebbero riuscire a completare il mosaico e stabilire qual è la soglia di coscienza nelle persone che hanno subito danni cerebrali.

Fonte: Wired.it

 

Riprendersi da uno shock come quello dell'11 marzo 2011 è difficile, così come lo è fidarsi delle centrali nucleari vecchie quanto quella di Fukushima. Infatti, dopo l'incidente che ha messo in ginocchio il Giappone, le autorità governative hanno ordinato lo spegnimento di tutti i 54 reattori presenti sul territorio nazionale eccetto 3.

Ma con il documento approvato ieri dalla International Atomic Energy Agency (Iaea) per il paese potrebbe essere molto più facile riavviare gli impianti. Tutto merito del fatto che gli stress test svolti dall' Agenzia per la sicurezza nucleare (Nisa) sono stati riconosciuti come validi da parte della comunità internazionale.

Ma, come riporta il Guardian, non mancano le critiche, tutte incentrate sulla possibilità che i controlli attuali non siano sufficienti. A dirlo sono Masashi Goto, un ex progettatore di centrali, e Hiromitsu Ino, professore della Tokyo University da sempre attivo nel campo della sicurezza nucleare.

Secondo i due esperti, le procedure di valutazione adottate dalla Nisa si limiterebbero a passare al setaccio le specifiche tecniche degli impianti giapponesi per controllare che questi rispettino le norme vigenti. Insomma, niente di differente da quanto non fosse già stato fatto prima dell'incidente di Fukushima.

A peggiorare le cose, spiega Ino, concorrerebbe il fatto che le indagini sull'incidente dell'11 marzo scorso non sono ancora state in grado di fornire un quadro esatto di cosa sia accaduto all'interno della centrale di Fukushima. Poco importa se i criteri degli stress test pianificati in Giappone ricalcano fedelmente quelli delle prove condotte in Europa.

Nel frattempo, i primi controlli effettuati da Nisa hanno assegnato il bollino verde alla centrale di Oi gestita dalla Kansai Electric Power. Secondo i dati rilasciati dal gestore, sulla carta l'impianto è progettato per resistere a onde di tsunami alte 11,4 metri e a un terremoto 1,8 volte più forte di quanto previsto durante le fasi di costruzione. Di fatto, sono tutti dati che non dimostrano affatto la volontà di condurre test più approfonditi sulla possibilità che si possano verificare anche errori umani o incidenti inattesi.

A tutto questo si aggiunge la proposta varata dal governo giapponese il 25 gennaio scorso, che fissa il limite d'età delle centrali nucleari a 40 anni ma, allo stesso tempo, prevede delle deroghe speciali di ulteriori 20 anni. Sembra quindi che il Giappone non abbia serie intenzioni di dismettere i vecchi reattori con tanta facilità.

Probabilmente, l'esito positivo degli stress test giocherà un ruolo fondamentale nel facilitare il riavvio e il mantenimento in funzione dei reattori over 40. Forse, prima di prolungare la pensione dei reattori di vecchia generazione sarebbe il caso di domandarsi se i danni provocati da una nuova Fukushima potranno essere ancora accettabili.

Fonte: Wired.it

 

Logaritmi, seno, coseno e radici quadrate: mettersi a fare i calcoli con carta e penna non è affatto facile. Per fortuna, qualcuno ha trovato il modo di racchiudere una grande potenza di calcolo in un guscio compatto e dallo stile inconfondibile. Si tratta della Hp-35, la prima calcolatrice scientifica dotata di tutte le funzioni necessarie per passare un esame di analisi matematica. Nel giro di pochi anni, la prodigiosa macchinetta conquista il mercato, e sopravvive a una serie di crash-test incredibili.

Infuso di scienza Ma la pubblicità è più cool Soluzioni intelligenti

Con la semplice pressione di un tasto, la Hp-35 eseguiva funzioni trigonometriche e logaritmiche restituendo il risultato su un piccolo schermo a led rossi. Fino a allora, calcoli del genere potevano essere fatti solo con calcolatori da tavolo (o computer), e gli studi di mercato spergiuravano sul fatto che nessun nuovo prodotto tascabile avrebbe mai intaccato la loro supremazia.

Senza farsi scoraggiare, alla Hewlett-Packard pensarono che fosse arrivato il momento di cambiare le carte in tavola, e mettere in tasca alla gente una potenza di calcolo mai vista. La Hp-35 venne messa in commercio il primo febbraio 1972: nel giro di tre anni ne erano già stati venduti 300mila esemplari. Si trattava di un prodotto pensato soprattutto per i laboratori e gli uffici dei professionisti, visto che il prezzo di partenza era di 395 dollari (circa 1.500 euro di oggi).

Il display a led poteva visualizzare fino a 10 cifre decimali e esponenti a doppia cifra, mentre l'alimentazione era fornita da tre batterie ricaricabili AA. Sulla Hp-35 c'erano, per l'appunto, 35 tasti ma mancavano le parentesi. Infatti le operazioni più complesse venivano risolte grazie all'impiego della notazione polacca inversa (Rpn), una soluzione matematica che permette di svolgere i calcoli immettendo nella macchina gli operandi (i numeri) e gli operatori (+, -, *, /) in modo separato.

Insomma, una soluzione semplice e pratica che segnò l'inizio all'era delle calcolatrici tascabili. Di lì a poco, i successori della Hp-35 sarebbero entrati nelle tasche di tutti. Non a caso, Forbes ha definito la creatura della Hewlett uno dei 20 oggetti che hanno cambiato il mondo.

Infine, la prima compatta scientifica ha battuto anche molti record di prestazioni e resistenza: è stata in cima all'Everest, nello spazio e dentro la pancia di un ippopotamo. Nell'ultimo caso, sembra che sia stata digerita e espulsa in perfette condizioni. Altri assicurano che la loro Hp-35 è caduta dentro un cannone sparaneve e finita sotto le ruote di una Ford Gran-Torino del '73. Il risultato? Neppure un graffio.

Fonte: Wired.it

 

Né sacerdote né avvocato. Alessandro Volta (1745-1827), come molti illustri colleghi, disobbedì al volere di famiglia (dello zio, in particolare) e virò dagli studi giuridici a quelli scientifici. Formandosi per lo più da autodidatta, aiutato in parte dalla grande curiosità che lo aveva accompagnato sin da piccolo e in parte da alcuni fortunati incontri. Uno dei quali fu quello con l’amico Giulio Cesare Gattoni, che aveva conosciuto proprio in seminario.

Fu infatti nel laboratorio improvvisato dell’amico che Volta - complici anche le letture di alcuni libri, come The History and Present State of Electricity di Joseph Priestley (lo scienziato che aveva contribuito alla scoperta dell’ossigeno) - cominciò a interessarsi di scienza. Dell’elettricità, in particolare. Ma anche se lo ricordiamo per la costruzione dell’elettroforo (uno strumento per accumulare carica elettrica), dell’elettrometro (per misurare la differenza di potenziale), per la sua disputa con Luigi Galvani sull’ elettricità animale e per la creazione della pila, Alessandro Volta non si occupò solo di elettricità.

Intorno agli anni Settanta del Diciottesimo secolo, Volta aveva sentito degli strani racconti sul fiume Lambro, in Lombardia: passando con una candela sulla superficie delle sue acque paludose, si accendevano fiammelle di un insolito colore azzurro. Non era la prima volta che qualcuno riportava l’insolito fenomeno, fino ad allora etichettato come un’ “esalazione di aria infiammabile, di origine minerale”. Ma Volta era comunque deciso a toccare con mano quei fuochi.

L’occasione sarebbe stata una passeggiata negli stagni di Angera, nei pressi del Lago Maggiore. Si  racconta che durante una gita in barca lo scienziato smosse con un bastoncino il fondale, notando delle bollicine che risalivano verso l’alto. Se fosse riuscito a catturare quelle bollicine, pensò Volta, avrebbe potuto capirne meglio le caratteristiche. Così, come si fa con un insetto per studiarlo al microscopio una volta tornati in laboratorio, il giovane Alessandro raccolse dei campioni di quell’aria melmosa e le imprigionò in un contenitore.

Si accorse presto che così come l’idrogeno, il gas emanato dalle paludi era infiammabile. Aveva scoperto quello che solo molti anni dopo sarebbe stato riconosciuto come il più semplice degli idrocarburi della famiglia degli alcani, il metano, formula CH 4, prodotto della decomposizione di organismi viventi. Una scoperta che si dice risalire al 31 gennaio 1776 e per la quale lo scienziato italiano trovò presto un’applicazione.

Con quell’ “aria nativa delle paludi”, come si riferiva al metano, costruì infatti la pistola elettroflogopneumatica: all’interno di un contenitore di vetro mescolò insieme ossigeno e aria infiammabile che, in presenza di una scintilla, potevano esplodere lanciando in aria un tappo di sughero. Una sorta di sistema di allarme. E nelle sue ipotesi il sistema poteva funzionare anche a distanza, con un segnale di innesco trasportato per via elettrica. Non vi ricorda il telegrafo?

Fonte: Wired.it

 

Ce lo ripetono da quando siamo piccoli: l’ attività fisica fa bene alla salute. Aiuta a contenere i livelli di stress, a non ingrassare e ad allontanare lo spettro di malattie come il diabete. Ma se dovessimo spiegare cosa accade alle nostre cellule mentre corriamo al parco o durante la lezione di aerobica in palestra, avremmo poco da dire. Perché poco si conosce dei meccanismi molecolari messi in moto dall’attività fisica. Un gruppo di ricercatori guidati da Beth Levine della University of Texas Southwestern Medical Center di Dallas (Usa) è però riuscito a scoprire che i benefici dell’attività fisica proverrebbero, almeno in parte, da un’efficiente attività di riciclo cellulare.

Come spiegano gli scienziati dalle pagine di Nature, lo sport induce un particolare meccanismo biologico: l’ autofagia, il processo con cui la cellula divora alcune sue parti (come certi organelli), destinandone al riutilizzo i diversi componenti. In pratica si tratta di una forma di economia cellulare: in caso di necessità, si smonta qualcosa per trovargli un nuovo utilizzo. E l’autofagia è tanto un processo fisiologico, quindi normale, quanto un meccanismo innescato da condizioni patologiche, come sistema di difesa (per esempio contro cancro, infezioni, invecchiamento o insulino-resistenza, come è stato dimostrato nei topi). 

Per capire se l’autofagia fosse legata anche all’ attività fisica, i ricercatori hanno allenato, sottoponendoli a intenso sforzo, alcuni topi in cui questo meccanismo fosse stato geneticamente compromesso, in cui cioè fosse alterato il gene BCL-2, un regolatore importante dell’autofagia (in realtà, in questi animali non risultava danneggiato il meccanismo in sé, ma solo quello indotto dall’esercizio fisico). Se, infatti, i topi normali mostrano un ritmo intenso di autofagia in seguito all’esercizio fisico (sia nei muscoli scheletrici sia in quello cardiaco), non accade lo stesso nei topi mutanti.

In questi animali inoltre, l’assenza del meccanismo è correlata a una serie di sintomi, come diminuita resistenza fisica e metabolismo del glucosio alterato. Ma non solo: senza riciclo cellulare, i topi sviluppano più facilmente intolleranza al glucosio se alimentati con una dieta ricca di grassi, una condizione prediabetica che invece l’esercizio fisico normalmente riesce a contrastare.

Secondo i ricercatori, l’effetto benefico dell’ autofagia sarebbe dovuto alla capacità delle cellule di adattarsi (attraverso il riciclo dei componenti cellulari) ai bisogni energetici e nutrizionali dell’organismo in seguito all’ attività fisica (per esempio regolando il metabolismo del glucosio). Qui, la via bio-molecolare legata alla proteina prodotta da BCL-2 sembra essere fondamentale, tanto da poter immaginare di utilizzarla in futuro nei trattamenti delle malattie metaboliche.

Fonte: Wired.it

 

Produrre enormi quantità di energia senza inquinare il pianeta. Sulla carta è un obiettivo molto nobile, ma nella realtà dei fatti e tutta un'altra cosa. Deve essere per questo che l' E-Cat di Andrea Rossi è ancora avvolto in una densa coltre di mistero. L'inventore italiano sembra aver scelto gli Stati Uniti per effettuare nuove prove con il suo generatore di vapore alimentato da una reazione nucleare tra nichel e idrogeno. Ma senza prove concrete, è difficile fidarsi. Ecco perché, come spiega Wired.uk, il panorama della fusione fredda degli ultimi decenni è nutrito di casi emblematici. La scarsa credibilità dei prototipi simili a E-Cat è dovuta al fatto che promettono di produrre molta più energia di quella necessaria a farli funzionare. Di fatto è un concetto del tutto impossibile, a meno che non si tirino in ballo i processi di fusione del nucleo che avvengono normalmente dentro le stelle a temperature di milioni di gradi. Nel 1989, gli elettrochimici Stanley Pons e Martin Fleischmann dissero di aver ottenuto gli stessi risultati della nostra stella in un comune laboratorio, ma furono immediatamente smentiti. Ma ancora oggi c'è chi non demorde.

E-Cat
L'invenzione di Andrea Rossi è sicuramente la punta di diamante di chi crede che la fusione fredda possa entrare nelle nostre case in modo semplice e pulito. Dopo la prima serie di controversi esperimenti condotti a Bologna – i cui risultati non sono mai stati comprovati da esperti indipendenti – Rossi ha trasferito il proprio business negli States dove ha già messo in offerta i propri generatori da un Megawatt. Il prezzo? 1,5 milioni di dollari.

Le caratteristiche del suo generatore a fusione fredda farebbero quasi gridare al miracolo: con un chilogrammo di nichel E-Cat produrrebbe l'equivalente d'energia ottenuto dalla combustione di 200 tonnellate di petrolio, ma con zero emissioni di anidride carbonica. I numeri volano alti fino alle stelle, ed entro il 2013 il gruppo di Rossi promette di lanciare sul mercato anche una linea di generatori per la casa da 10 Kilowatt. In lista d'attesa ci sarebbero già 10mila persone.

Il giallo di Ampenergo
Già nel 2011, il generatore da un Megawatt sponsorizzato da Rossi aveva più volte fatto la spola tra il capannone sperimentale di Bologna e una azienda americana, la Ampenergo. Come si legge nel suo sito web, il ruolo della corporation consiste nel promuovere la commercializzazione di E-Cat nelle Americhe.

Tuttavia, vista da vicino, la compagnia non sembra altro che una scatola vuota costruita all'occorrenza. La pagina online, scarna di contenuti, è stata registrata solo nel dicembre 2010, e non ha ricevuto che un aggiornamento lo scorso giugno. Secondo i registri americani, poi, Ampenergo sarebbe tuttora inattiva.

E, stranamente, l'indirizzo dei suoi uffici coincide con quelli della Leonardo corp di Andrea Rossi.

La concorrenza
I vecchi compagni di viaggio a volte possono pugnalarti alle spalle. Sembra essere il caso della azienda greca Defkalion che, dopo essere stata in affari con Rossi, ha rotto un contratto di collaborazione e si è messa in proprio. Forte della collaborazione tecnica avuta con l'inventore di E-Cat, la ditta ellenica ha messo a punto Hyperion, un reattore del tutto simile alla controparte italiana.

Il dispositivo sarebbe in grado di generare una quantità di energia fino a 30 volte superiore a quella necessaria per metterlo in azione. Un altro prodigio della fusione nucleare tra nichel e idrogeno. A differenza dell'invenzione di Rossi, Defkalion sembra bene intenzionata a diffondere alcune schede tecniche del prototipo, e promette di pubblicare nuovi dati sui test di funzionamento. Le scelte sono due: o stanno cavalcando l'onda di E-Cat, o vogliono davvero risollevare l'economia greca.

La via del plasma
Oltre ai reattori fai-da-te, esistono progetti più seri che puntano da anni sulla fusione nucleare come soluzione al dilemma dell'approvvigionamento di energia. Uno di questi si chiama Iter, nato nel 1985 a seguito dell'accordo proposto dal presidente francese François Mitterand, il ministro inglese Margaret Thatcher e il segretario sovietico Mikhail Gorbaciov al presidente americano Ronald Reagan. Ne è nata una collaborazione mondiale – a cui in seguito si sono uniti l'Unione Europea e altri paesi – mirata a utilizzare l'energia atomica per scopi pacifici.

Attraverso l'impiego di un dispositivo tokamak in grado di gestire del plasma ad alta temperatura, il progetto Iter punta a riprodurre la fusione di due atomi pesanti di idrogeno (deuterio e trizio) in uno di elio. Proprio come avviene nelle stelle, a parte il fatto che si rimane con i piedi ben saldi sulla Terra. Il progetto è davvero ambizioso, e i primi test avranno luogo solo nel 2020 presso il sito francese di St-Paul-lez-Durance.

Fonte: Wired.it

 

Il punto di partenza di questo libro è esplicito: la misurazione dell'universo dei social media in senso rigoroso e pratico. Rigoroso perché basato sulla misurazione quantitativa dei fenomeni; pratico, perché dalla teoria più alta si allontana per diventare insieme di azioni e best practice. Misurare, dunque. Certo misurare vuol dire valutare, ma ciascuna misura, presa da sola, si limita a un numero tanto preciso quanto inutile. Quindi per valutare in modo compiuto e utile bisogna comprendere altri elementi: lo scenario di riferimento, con uno sguardo prospettico, i mutamenti che ha contribuito a determinare, il terreno d’azione e le logiche di funzionamento. Analoga situazione si forma nel passaggio dalle valutazioni prese singolarmente al loro insieme, la strategia, distillata nelle azioni da compiere. Ecco perché dopo le valutazioni bisogna trovare il modo per far capire l’importanza di agire a chi in azienda ha il potere di decidere la partenza di un programma strategico di azione attraverso i social media.

Breve storia dell'incontro tra aziende e social media:
La storia dell'interesse dei manager aziendali per i social media si può retrodatare al periodo in cui i blog iniziarono a diventare un oggetto d'interesse per i mass media e il Web cominciò a rivelarsi come complesso sistema non solo di fruizione ( readable) ma anche di produzione dal basso ( writable). Fu in quel momento, fotografato dalla famosa "copertina specchio" del Time che decretava “YOU” persona dell'anno ( Time, volume 168, numero 26, dicembre, 2006), che iniziò a insinuarsi nei comunicatori più illuminati un tarlo, alimentato dalle prime agenzie di digital PR. Queste, intuendo la dirompente portata sociale e, naturalmente, commerciale del fenomeno, provarono a offrire nuovi servizi in grado di consentire alle aziende di comprendere quella magmatica realtà. I blogger iniziarono ad incuriosire e, a volte, impensierire per primi gli uomini delle pubbliche relazioni che non capivano né quanto fossero davvero importanti né come "catalogarli". Queste persone animate da grande passione, che con le proprie opinioni, potevano scalfire la granitica reputazione delle aziende erano un fenomeno da analizzare attentamente. Dal tentativo di comprensione si passò ben presto alla sperimentazione di inediti approcci alle relazioni pubbliche. Alcuni azzardarono i primi contatti con i blogger, inviando loro prodotti in cambio di un feedback sincero. In Italia lo fece per primo Antonio Tombolini col progetto "pesto ai blogger" (febbraio, 2006) sulla scia del successo dell'iniziativa di Stormhoek (maggio 2005) piccolo produttore di vini sudafricano, che con un investimento di 40.000 dollari in due anni riuscì a ottenere una visibilità tale da essere accolto dal colosso Tesco sui suoi scaffali.

Lo spirito dell'idea fu chiarito dalle parole del suo creatore Hugh MacLeod, marketer e disegnatore, "un'azienda vinicola non dovrebbe essere come un country club, ma avere la stessa attitudine di una start-up della Rete" . Altre aziende provarono a incontrarli informalmente per stabilire un contatto personale. Il primo esempio italiano risale al febbraio del 2006. Lo ricordo bene perché contribuii a realizzarlo dall'interno. Microsoft aveva deciso che era giunto il momento di dialogare con i sostenitori dell'open source e così provammo a mettere a confronto una decina di blogger con i più alti rappresentati dell'azienda di Bill Gates.

Si incominciò a parlare dei blog come strumento utile a modificare la percezione delle aziende quali opache “macchine macinasoldi”. Fecero scuola le esperienze di Microsoft e del suo Channel 5 o dei blog dei CEO di Sun Microsystem o della catena di hotel Marriott. Erano nati i “corporate blog” e i “CEO blog”. Questi ultimi, in particolare, erano animati da manager che decisero di "metterci la faccia" e dar vita ad un dialogo, il meno ingessato possibile, fuori dagli schemi imposti dalla tradizione delle relazioni pubbliche. A volte arrivando anche all'estremo di dare la notizia di odiosi licenziamenti dalle colonne del blog.

Con l'aumentare degli strumenti di condivisione aumentò anche la complessità di gestione delle attività aziendali sui social media e il disorientamento del management.

L’equazione social web uguale blog sembrava rivoluzionaria e destinata a vivere anni felici, ma contrariamente alle aspettative successe qualcosa del tutto inaspettato: l’avvento dei social network.Il successo planetario di Facebook indusse molti a sostituire o evitare il corporate blog, delicato e impegnativo, a favore della pagina su Facebook, più snella e meno rischiosa. É l'inizio della grande illusione zuckerberghiana: l'idea implicitamente indotta che basti una pagina infarcita di promozioni e post ammiccanti, nel più trafficato centro commerciale online, per diventare social e raggiungere migliaia di persone. La storia dei servizi web mostra un pattern che si ripete: introduzione, adozione da parte degli utenti ( innovators prima e poi early adopters) osservazione e successiva sperimentazione da parte delle aziende più innovatrici. Qui il vantaggio dell'azienda first mover si rivela sempre molto importante: quella che per prima riesce a superare l'iniziale ritrosia naturale verso le novità e a esplorare i modi più genuini e innovativi per comunicare attraverso il nuovo servizio, è nella giusta posizione per costruire una credibilità duratura. Per di più, solitamente, gli utenti sono disposti a perdonare anche i piccoli incidenti di percorso, che possono capitare quando si esplora per primi un territorio sconosciuto.

Ecco perché uno degli obiettivi dell'azienda moderna dovrebbe essere quello di introiettare quella cultura della Rete, quella curiosità verso il nuovo, tale da spingerla naturalmente verso la sperimentazione di approcci innovativi di comunicazione.

Oggi siamo in una fase delicata di passaggio. Dalla consapevolezza delle sfide che pone il nuovo ambiente mediale ai primi tentativi di gestione professionale. Dalla gestione esclusiva delle nuove pratiche di comunicazione da parte della funzione marketing o relazioni esterne, all'idea di “social business” o “social organization”. In questo contesto chi prova a spostare investimenti dalle attività tradizionali a quelle sui nuovi media, inizia ad interrogarsi sulla loro misurabilità. Si parla con sempre più insistenza di R.O.I. (Ritorno sull'Investimento) con la pretesa di voler trasformare magicamente i likers, un tempo conosciuti come fan, e i follower in clienti.  Senza aver ben chiari gli obiettivi di business e in un contesto aziendale ai limiti dell'anarchia e dell'improvvisazione.

È da qui che nasce l'idea di questo libro che, senza pretesa di esaustività, vuole offrire un contributo iniziale di riflessione a quanti intendono utilizzare i social media professionalmente, e misurarne i risultati.
Einstein diceva "non tutto ciò che può essere contato conta, e non tutto ciò che conta può essere contato". Il detto del grande fisico si attaglia alla perfezione al nostro caso. Quando parliamo di attività di comunicazione attraverso i social media dovremmo avere in mente non uno strumento tecnologico, né un canale di distribuzione, ma attività tese a generare uno scambio di valore tra persone. Un valore immateriale, per definizione, impossibile da misurare puntualmente e soprattutto non convertibile sic et simpliciter in valori finanziari.

Ciononostante è importante che anche le attività di social media marketing e PR, come ogni azione aziendale, si pongano degli obiettivi raggiungibili e misurabili, in modo, quantomeno, di guidare l'azienda verso il graduale miglioramento. La misurazione, dunque, è un processo, non un attività improvvisabile ex post. Richiede un pensiero strategico, un contesto e un framework di riferimento in grado di supportare l'implementazione del social media marketing plan.

Cosa è cambiato nella comunicazione: dal controllo alla cogenerazione dei messaggi aziendali:
Con l’affermarsi della società in rete e il successivo, inevitabile, dissolvimento della rete dentro la società, il ruolo della comunicazione in azienda sta cambiando inesorabilmente, indipendentemente dalla consapevolezza e dai comportamenti, spesso reazionari, dei comunicatori, siano essi uomini di marketing o relatori pubblici. 

Manuel Castells sostiene che la società in rete comunica e consuma mediante la Rete, in base a processi che diffondono istantaneamente simboli e conoscenze, modificando in profondità le espressioni culturali e cambiando radicalmente le forme del potere politico e della mobilitazione sociale (Manuel Castells, Comunicazione e Potere, Bocconi Università Edizioni, 2009).

Continua a leggere: Wired.it

 

Camminando per lo spazio espositivo di Peep-Hole vedrete molte luci accendersi. Non si tratta, però, di una mostra di design o di lampade d'autore. Gli interruttori sono a Rio de Janeiro, nella casa di Renata Lucas, artista brasiliana che espone a Milano l' impianto elettrico della sua abitazione in Brasile nell'installazione Third Time.

Le lampade - tutte al neon, per accentuarne la presenza negli spazi - sono nell'esatta posizione originale dall'altra parte del mondo e si accendono quando la Lucas, banalmente, le accende a casa sua. L'installazione utilizzza un impianto di domotica che consente il coordinamento dei due impianti elettrici che fanno dell'artista il collante tra la sua abitazione e la galleria milanese, giocando con la sua assenza/presenza. E annullando i 9mila chilometri di distanza.

L'ispirazione per l'opera nasce da un fatto curioso: nel 1931 l'illuminazione della Statua del Cristo Redentore a Rio, nel giorno della sua inaugurazione, venne attivata via radio proprio dall'Italia pare - anche se non vi è la certezza - da Guglielmo Marconi. Third Time è visitabile fino al 4 di febbraio, presso Peep-Hole.

Fonte: Wired.it

 
Ci sono 3072 persone collegate

< aprile 2020 >
L
M
M
G
V
S
D
  
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
     
             

Titolo
en - Global Observatory (605)
en - Science and Society (594)
en - Video Alert (346)
it - Osservatorio Globale (503)
it - Scienze e Societa (555)
it - Video Alerta (132)
ro - Observator Global (399)
ro - Stiinta si Societate (467)
ro - TV Network (149)
z - Games Giochi Jocuri (68)

Catalogati per mese - Filed by month - Arhivate pe luni:

Gli interventi più cliccati

Ultimi commenti - Last comments - Ultimele comentarii:
Hi, it's Nathan!Pretty much everyone is using voice search with their Siri/Google/Alexa to ask for services and products now, and next year, it'll be EVERYONE of your customers. Imagine what you are ...
15/01/2019 @ 17:58:25
By Nathan
Now Colorado is one love, I'm already packing suitcases;)
14/01/2018 @ 16:07:36
By Napasechnik
Nice read, I just passed this onto a friend who was doing some research on that. And he just bought me lunch since I found it for him smile So let me rephrase that Thank you for lunch! Whenever you ha...
21/11/2016 @ 09:41:39
By Anonimo


Titolo





03/04/2020 @ 23:15:42
script eseguito in 1746 ms