Una sentenza, un requiem per la scienza

Il ricordo di quello che è successo a L’Aquila il 6 aprile 2009 fa rabbrividire. Esattamente come la sentenza che adesso condanna i componenti dell’allora Commissione Grandi Rischi per omicidio colposo plurimo e lesioni colpose. La colpa? Aver rassicurato la popolazione dicendo che non c’erano ragioni sufficienti per scappare, nonostante lo sciame sismico in corso da giorni. L’accusa aveva chiesto quattro anni di reclusione, ma evidentemente non bastavano. Vada per sei. E tanto per non sbagliarsi, interdizione perpetua dai pubblici uffici.

Continua a leggere…

(pre)Cari Amici #4 – Ricercatori alla corte di sua Maestà

 

[stextbox id=”custom” big=”true”]

Alessandro Fregoso, che sta sostenendo un dottorato di ricerca in fisica, ha intervistato due nostri conterranei che stanno facendo i ricercatori in Inghilterra. Un interessante spaccato della vita dei cosiddetti “cervelli in fuga” è il protagonista di questa quarta puntata di (pre)Cari Amici. Raccontateci la vostra storia, e noi la pubblicheremo. Farlo è semplicissimo, basta cliccare su “Contattaci” o sul banner qua di lato.

La Redazione di Camminando Scalzi.

[/stextbox]

Un tavolino, un caffè, magari un muffin (che in Gran Bretagna ‘o sanno fa) ed è pronta un’ottima scusa per chiaccherare un po’, specialmente se si tratta di prendersi una pausa dai fogli, dallo schermo, dai conti, dai grafici, insomma dall’odi et amo quotidiano. Essendo quindi ben consapevole che non avrebbero potuto resistere a una proposta così allettante, sono riuscito a incontrarmi con la dott.ssa Stefania Maccalli e il dott. ing. Ruggero Poletto, due dottorandi presso la University of Manchester, in Inghilterra, e a porre loro qualche domanda sulla loro esperienza nel variopinto calderone della ricerca scientifica.

Chiariamoci subito: voi non siete veri dottori, giusto?

Facce basite, mezzi sorrisi, un silenzio imbarazzato che grida, letteralmente, “ma che sta addì”. Urge precisazione.

Nelle conversazione più normali, “dottore” è quasi sempre sinonimo di “medico” e so, per esperienza personale e non, che può capitare di avere l’impressione che il proprio titolo di studio non venga considerato come ci si aspetterebbe perché non corrisponde a una professione tradizionalmente “rispettabile”. Avete anche voi qualche esperienza a riguardo?

Stefania: Una volta, parlando con una persona appena conosciuta, ci si diceva cosa si fa nella vita, e io raccontai che ero laureata in fisica. Al che mi fu ribattuto “ah sì, avrei proprio un po’ di pancetta da buttar giù, non è che potresti consigliarmi cosa fare in palestra?”. È vero, il nome è simile, ma l’educazione fisica è decisamente un altro ambito della conoscenza…

Ruggero: In realtà il titolo di ingegnere rientrerebbe anche tra quelli “rispettabili”, ma appena m’hanno dato in mano la laurea mi hanno detto: “tu sei dottore in ingegneria ma non sei ancora ingegnere perché ti manca l’esame di stato”, per cui mi sento sempre come qualcuno a cui manca qualcosa per essere qualcos’altro.

Raccontatemi un po’ della vostra formazione.

R.: Ho fatto il liceo scientifico in una piccola scuola di paese dove ci conosciamo tutti, poi sono andato a Padova a fare la laurea triennale e specialistica in ingegneria aerospaziale, dopodiché ho provato a trovare un’occupazione in Italia, non ho trovato niente che mi piacesse in maniera sostanziale, e soprattutto che mi permettesse di mettere in pratica quel che avevo imparato, per non parlare dell’aspetto economico, il più delle volte in uno stato desolante. Allora ho preso armi e bagagli, e ho deciso di approfondire i miei studi con un dottorato, e ho trovato il più adatto a me qui in Inghilterra.

S.: Alle elementari ho avuto la maestra unica, una seconda mamma che è stata capace di insegnarmi a ragionare, a imparare. Poi il periodo buio delle medie, il liceo scientifico con indirizzo informatico, che però non m’ha dato niente di diverso da un normale liceo; Università Cattolica di Brescia per tre anni a studiare fisica, spesso in corsi con più professori che studenti, quindi seguiti molto da vicino, fantastico. Tentativo di laurea specialistica fallito per varie incompatibilità di piano di studi, dopodiché sono venuta a sapere da amici di amici di amici che qua si poteva fare il dottorato anche solo con la laurea triennale e ho fatto subito le valigie.

Albert Einstein sosteneva che ogni scienziato dovrebbe essere in grado di spiegare di cosa si occupa alla propria nonna. Di cosa vi occupate, cari nipotini?

R.: Per risolvere problemi come ad esempio progettare un’ala o studiare il rumore prodotto da una turbina, spesso si usano simulazioni al computer. Per farle ci sono principalmente due metodi: uno veloce ma molto approssimativo e uno lento ma più accurato. Io sto cercando di creare un sistema ibrido che riesca a mettere insieme i vantaggi degli altri due.

S.: Mi occupo di ottica, cioè di ciò che riguarda la luce (e non di occhiali!). Recentemente sono state scoperte nuove proprietà dei fotoni, che sono le particelle di cui è fatta la luce, ed è possibile sfruttarle per capire di più delle stelle da cui la luce arriva fin qua. Io sto pensando agli strumenti che ci permetteranno di ottenere queste informazioni.

Scegliere di fare ricerca scientifica non vuol dire mai intraprendere una strada comoda, in nessun periodo storico. Come mai avete preso questa direzione?

S.: La botta in testa vocazionale risale al periodo delle elementari, appena ho potuto cominciare a leggere i libri di Asimov di mio papà. Dalla fantascienza è nato poi l’amore per l’astrofisica, che dura tutt’ora.

R.: Ci sono tante ragioni, ma credo che la più importante sia quella che dovrebbe esser valida per ogni scelta, e cioè la passione per quello che si sta facendo. Non sono mai stato attratto dall’idea dell’ingegnere che gestisce l’azienda, che fa il manager; mi interessano molto di più le sfide che si affrontano nella progettazione e nella ricerca.

Il caffè che non è ancora stato bevuto si sta raffreddando, il sole ormai basso fa capolino tra gli alberi immergendo il locale in un tepore che sa già di ritorno a casa per cena. È il momento ideale per una marzullata.

Scienziati si nasce o si diventa?

S.: Direi che si nasce, perlomeno in certi casi eclatanti. Ma se incontri le persone giuste, puoi anche imparare ad apprezzare l’ambiente e ad appassionartene col tempo. Ci sono persone che si innamorano con un colpo di fulmine, e altre che ci mettono di più a rendersene conto.

R.: Probabilmente nasci con la passione, poi sta a te far diventare questa passione una scelta di vita. È come il calcio, nasci con la dote giusta, ma se non ti alleni è inutile, non diventerai mai un calciatore.

Cosa vuol dire per te fare scienza, qui e ora?

S.: Per me innanzitutto è vivere un sogno che non speravo più di riuscire a realizzare. Poi è qualcosa che è soltanto per la conoscenza, la soddisfazione di aggiungerci il proprio pezzettino, anche se non dovesse comportare gratificazioni né sociali né economiche. Il bello è anche potersi confrontare con tante altre persone da tutto il mondo che condividono i tuoi stessi metodi e le tue stesse motivazioni.

R.: A me pare che la storia sia stata fatta e sia fatta tutt’ora da dei piccoli esserini come te e me, che cercano di risolvere i loro problemi, piccoli o grandi che siano. C’era il problema del trasporto, e qualcuno s’è detto “bè, quasi quasi mi invento la ruota”, e questo è fare scienza: cercare di risolvere i nostri piccoli problemi e migliorarci un po’ la vita.

Uno dei padri della fisica moderna, Niels Bohr, asseriva che fare previsioni è molto difficile, specialmente del futuro. Ciononostante, vi chiedo di provare a dare un’occhiata nei prossimi anni: quali sono le vostre speranze e che cosa vi aspettate?

R.: Innanzitutto spero di finire il dottorato in tempo, e dopo mi piacerebbe tornare in Italia ad applicare quello che ho imparato. Il resto lo scopriremo solo vivendo, d’altronde se m’avessi fatto la stessa domanda qualche anno fa, mai t’avrei detto che mi sarei ritrovato a Manchester, men che meno a farmi fare un’intervista!

S.: Come primo obbiettivo, finire il dottorato, mettere la mia bandierina sulla cima della montagna, magari nel frattempo avendo realizzato qualcosa di utile anche per altra ricerca. Se poi potessi continuare a far ricerca, non importa dove, sarebbe il massimo. E anche farsi una famiglia…

Chiudiamo in bellezza: un consiglio per chi sta muovendo i primi passi verso una vita dedicata alla scienza.

R.: Lasciate perdere, ho già abbastanza concorrenza!

S.: Fatevi curare!

 

Che dite, questi scienziati ci stanno già diventando troppo british? Tanti saluti ai continentali!

 

Happy birthday, big scary laser!

Un arma elegante, per tempi più civilizzati”. Moltissimi tra voi riconosceranno in questa citazione la descrizione che Obi-Wan Kenobi dà della spada laser, l’arma distintiva di ogni Jedi che si rispetti. Da sempre la fantascienza ha infatti nelle armi energetiche uno dei suoi maggiori cliché. Cannoni laser, blasters, disgregatori, hanno tutti in comune il fatto di espellere energia sotto forma di luce estremamente intensa, piuttosto che con un proiettile fisico. Oggi il laser (che ha appena compiuto 50 anni… Auguri!) trova innumerevoli applicazioni nei più svariati campi, in nessuno dei quali viene – per fortuna, aggiungo io – utilizzato come arma (anche se ci sono sperimentazioni in questa direzione da parte dei soliti americanoni) . Oggi voglio approfittare di questo compleanno per raccontarvi un po’ come funziona il dispositivo che ha permesso l’avvento di CD, DVD e Bluray vari, oltre a essere oramai uno degli strumenti fondamentali nella ricerca fisica, chimica e biologica.

ALTRO CHE PERDENTE

scarylaser

Laser è un acronimo che sta per Light Amplification by Stimulated Emission of Radiaton, ovvero “amplificazione della luce tramite emissione stimolata di radiazione”. In origine doveva chiamarsi Loser (perdente in inglese), con oscillation al posto di amplification, ma potete ben immaginare come un simile acronimo rischiasse di azzoppare in partenza l’apparecchio. Tecnicamente si tratta di una sorgente di onde elettromagnetiche coerenti altamente direzionali e monocromatiche. Il significato di questi termini sarà chiaro a breve, per adesso sappiate che tutto nasce da una teoria enunciata da Einstein (il caro vecchio Albert avrebbe dovuto prenderne 10 di premi Nobel, talmente tanti sono i suoi contributi alla fisica moderna) riguardo i fenomeni che regolano l’assorbimento e l’emissione dell’energia da parte degli atomi, e che pone la base riguardo la natura quantizzata dei livelli energetici. Senza scendere troppo nel tecnico, gli elettroni che ruotano attorno ai nuclei atomici lo possono fare solo seguendo traiettorie ben definite, tanto più ampie (e quindi lontane dal nucleo) quanto è maggiore l’energia dell’elettrone che la percorre. I livelli quantici sono separati tra loro da quantità ben precise di energia, uguali per ogni atomo dello stesso tipo che si trovi nelle medesime condizioni. Insomma se prendete, ad esempio, un atomo di idrogeno e volete che il suo unico elettrone faccia il salto quantico (quantum leap) al primo livello partendo dallo stato di ground (il livello di minima energia), dovrete sempre fornirgli lo stesso quantitativo di energia. Questo significa anche che ogni volta che l’elettrone decaderà allo stato di ground (cosa che farà spontaneamente dopo un tempo nell’ordine dei nanosecondi), riemetterà quella stessa energia sottoforma di un fotone di luce.

laser3Questo processo è chiamato emissione spontanea, e avviene con tempistiche del tutto casuali, così come del tutto casuale è la direzione in cui viene emesso il fotone. Esiste però anche il processo stimolato, che si ottiene facendo incidere sull’atomo eccitato un fotone la cui energia è uguale a quella di eccitazione. L’onda elettromagnetica risultante dall’emissione stimolata avrà la medesima fase (ovvero, alle creste e alle valli dell’onda stimolante corrispondono perfettamente creste e valli dell’onda stimolata) e direzione dell’elettrone incidente. Ora, immaginate di avere una certa quantità di materiale eccitato energeticamente  e di inviarvi contro un fotone alla giusta frequenza: quel che otterrete è un fascio di onde elettromagnetiche tutte in fase (coerenza spaziale e temporale), tutte della stessa frequenza (monocromaticità) e altamente focalizzate (alta direzionalità). Se poi ponete questo “materiale attivo” all’interno di quella che viene definita cavità di oscillazione o risonanza ottica (de facto, tra due specchi altamente riflettenti posti a una distanza opportuna da permettere l’instaurarsi di un regime di onda stazionaria, similmente a quanto accade a una corda fissa ai due capi che oscilla)  e continuate a “pompare energia” all’interno del vostro materiale attivo, otterrete che a ogni passaggio del fasci all’interno di esso la sua energia accrescerà (ed ecco l’amplificazione), fintantoché non deciderete di aprire la cavità lasciando uscire il vostro fascio laser.

IL RAGAZZO È BRAVO MA NON SI APPLICA… O SÌ ?

LaserCutterLa luce che emerge da un laser ha delle proprietà del tutto peculiari, che gli permettono un vasto range di applicazioni. Le caratteristiche di monocromaticità, coerenza e focalizzazione permettono di ottenere intensità luminose superiori a qualsiasi cosa esista sul globo terracqueo, superando alla grande anche la luce proveniente dallo stesso sole.  Vi basti pensare che bastano 10 mW di potenza per procurare temporaneo accecamento, e con 60 mW potete anche salutare la vostra retina. I laser in generale possono lavorare con un fascio continuo (in cui l’emissione della luce rimane più o meno costante durante il periodo di accensione del dispositivo) o impulsato (in cui l’energia emessa viene concentrata in brevissimi impulsi altamente energetici), e si possono raggiungere potenze davvero elevate. A titolo d’esempio, vi basti sapere che io stesso per la mia tesina triennale ho lavorato con un laser impulsato da 10 Terawatt (10^12 o mille miliardi di watt), che è più della potenza totale mondiale generata da centrali. Potenze nell’ordine dei 100 Petawatt (che è un unità di misura che non ha a che fare con l’aerofagia, ma equivale a 10^15 Watts) sono state raggiunte nei grandi centri per la ricerca riguardo la fusione nucleare a confinamento inerziale, sempre con laser a impulsi ultrabrevi (ricordo che la potenza è la quantità di energia emessa o assorbita diviso per il tempo impiegato… Per cui diminuendo il tempo di emissione la potenza aumenta enormemente, anche se in realtà si stanno emettendo pochi joule di energia).

Certamente la ricerca può fare grande uso delle caratteristiche di monocromaticità dei fasci laser (ad esempio per eccitare biomolecole fluorescenti), o dell’intensità e delle grandi potenze emesse (come nel caso delle già citate ricerche sulla fusione inerziale), ma anche l’utilizzo più o meno di tutti i giorni può beneficiare di questo strumento. Tralasciando CD, DVD e Bluray che tutti conosciamo bene, pensate anche soltanto alla precisione di taglio che un laser può garantire: nella chirurgia oramai sono cosa di tutti i giorni le operazioni a cornee, retine e via dicendo utilizzando laser, più sicuri e puliti di qualsiasi altra lama “fisica”. Nell’industria, tagliare lamiere, incidere circuiti stampati, semiconduttori e pannelli solari oramai è appannaggio dei laser, più precisi dei metodi tradizionali. Molti autovelox funzionano (purtroppo e per fortuna) tramite l’emissione di fasci laser, che in base al tempo di riflessione permettono di calcolare la velocità delle macchine che vi incappano. Di recente si è iniziato a utilizzare il LIDAR (un radar fatto con una testa laser in grado di effettuare scansioni spaziali) per la mappatura ad alta risoluzione dell’atmosfera, del terreno e perfino dei mari. Insomma, mai come oggi il “light side” ha avuto così tante buone motivazioni per essere scelto.

E allora: may the Force be with you!

Piove, Governo ladro!

Il clima, si sa, gioca brutti scherzi all’uomo dalla notte dei tempi. Siccità, alluvioni, tempeste, tifoni e bufere sono fenomeni prevedibili con precisione solo in parte, e le nostre possibilità d’intervento in questi ambiti sono limitate quasi esclusivamente a limitare i possibili danni derivanti dai fenomeni atmosferici. Tuttavia quel “quasi” si è  fatto sempre più importante nel corso degli anni, man mano che l’avanzamento tecnologico e la comprensione di certi meccanismi sono aumentati. Senza arrivare a parlare di terraformazione e geoingegneria, per ora appannaggio della fantascienza, o della danza della pioggia degli indiani (appannaggio in questo caso degli sciamani… Per chi ci crede), il controllo del clima è una realtà, molto più antica di quel che si pensa.

La più semplice e vecchia tecnica di controllo del clima è basata su un oggetto arcinoto a chiunque si diletti con l’hobby degli aquiloni. Il parafulmine venne “storicamente” inventato da Benjamin Franklin nel 1749, tramite il famoso esperimento della chiave. A posteriori si può essere piuttosto sicuri del fatto che se un fulmine avesse realmente colpito l’aquilone, Franklin si sarebbe preso una briscola da qualche kiloampère, che gli avrebbe lasciato poche speranze riguardo la possibilità di non cuocere dentro ai propri vestiti. Il lavoro del dotto americano è comunque molto importante, in quanto l’aquilone è stato in grado di raccogliere comunque delle cariche dall’atmosfera satura di elettricità di un’imminente tempesta, rivelando la natura dei fulmini e permettendo lo sviluppo di uno strumento in grado di controllare un fenomeno generalmente considerato come totalmente casuale.

Più di recente è apparsa sui giornali la notizia riguardante alcuni scienziati che affermano di essere riusciti a creare più di 50 tempeste artificiali sopra i cieli di Abu Dhabi, capitale degli emirati arabi uniti, arrivando addirittura a ottenere perfino delle grandinate. Per favorire la formazione di queste tempeste, gli scienziati hanno utilizzato degli ionizzatori di aria per generare carica statica nell’atmosfera, una condizione simile a quella presente all’interno di una tempesta di fulmini. La fisica ha fatto il resto e, sebbene i risultati non siano chiari e facilmente dimostrabili in termini teorici, il fatto che abbia grandinato in un luogo le cui le precipitazioni annue equivalgono come quantità a quelle che ci sono in un’ora nel mio bagno suggerisce che il metodo utilizzato ha di sicuro delle potenzialità, quanto meno per quanto riguarda la formazione della squadra olimpica di sci alpino dell’Arabia Saudita.

Metodi meno fantascientifici prendono il nome di cloud seeding e si basano sull’indurre reazioni chimiche a mezzo di differenti sostanze, che favoriscono la condensazione del vapore acqueo atmosferico, determinando la formazione di nuvoloni carichi di pioggia. Metodologie di cloud seeding vengono regolarmente impiegate in Cina, Stati Uniti e Russia, nelle zone ove la siccità la fa da padrona. Le sostanze più utilizzate sono il ghiaccio secco (anidride carbonica congelata) e lo ioduro d’argento, in genere nebulizzati direttamente nell’atmosfera tramite degli aerei appositamente modificati. La condizione necessaria affinché il meccanismo funzioni è la presenza di acqua nella forma di vapore, la cui temperatura sia al di sotto dello zero celsius. La presenza dello ioduro di argento, che ha una struttura cristallina simile a quella del ghiaccio, induce la nucleazione (ovvero la formazione di cristalli) a partire dalle particelle di vapore a bassa temperatura. Man mano che questi cristalli aumentano di dimensione (e quindi di peso), possono iniziare a cadere verso il suolo come neve o pioggia se, come più frequentemente accade, ritransiscono allo stato liquido. Oltre a favorire la generazione della pioggia, questa tecnica ha anche il non indifferente vantaggio di limitare l’insorgenza dei fulmini: essi infatti sono favoriti dalla presenza di vapore acqueo nell’atmosfera, dato che la frizione tra le particelle determina l’accumulo di carica elettrostatica che poi si trasforma in scarica. Diminuendo il numero delle particelle (aumentandone le dimensioni), si genera meno carica dato che ci sono meno collisioni.

Esperimenti nella direzione opposta a quanto visto finora sono stati condotti tra gli anni ’60 e ’80 in America. L’obbiettivo del progetto Stormfury era quello di smorzare la forza degli uragani tropicali. L’ipotesi di base era che introducendo lo ioduro all’interno del ciclone, si promuoveva la formazione di un secondo “occhio” (la zona centrale della tempesta, dove le situazione atmosferica è decisamente più calma rispetto al resto), concentrico a quello originale ma più grande. Questo determina variazioni di pressione più deboli, e quindi venti meno intensi. Anche una variazione limitata è importante, dato che il danno potenziale provocato da un uragano cresce come il quadrato della velocità delle masse d’aria che mette in moto. Il progetto Stormfury alla fine non ha prodotto i risultati sperati, sebbene siano state riscontrate delle variazioni significative nella struttura degli uragani, che possono essere tuttavia spiegate anche attraverso cause naturali. Al di là del fatto che pilotare un aereo all’interno di un uragano tropicale non è esattamente l’attività maggiormente esente da rischi del mondo, c’è ancora molto lavoro da fare per quanto riguarda i modelli matematici che descrivono l’evoluzione dei fenomeni climatici, dato che uno dei principali limiti di questo genere di attività è dato dalla mancanza di uragani che siano “candidati ideali” al seeding.

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox]

Premio Nobel: And The Winner Is…

Anche quest’anno, puntuali come al solito, sono stati annunciati i vincitori dei premi Nobel. Per quanto molte volte il Nobel sia stato considerato un premio “politico” – a causa di alcune scelte fatte, talvolta discutibili – non di meno rappresenta uno dei traguardi ideali nella vita di uno scienziato. Non tanto per il premio in sé, quanto per la visibilità che se ne trae. È innegabile che, quantomeno in ambito scientifico, il Nobel sia il premio che gode della maggiore popolarità. Quanti di voi hanno mai sentito parlare di medaglia Fields o del premio Max Born? Il Nobel rappresenta un’occasione per stimolare la curiosità dell’uomo della strada riguardo ai traguardi della scienza moderna, in un’epoca che deve sicuramente tanto al progresso tecnologico, ma che poco si sofferma a parlare di scienza e di cultura scientifica in generale. In attesa che LHC inizi a sfornare i suoi bei premi negli anni a venire (e fidatevi, qualunque cosa salti fuori da quegli esperimenti sarà degno di nota), anche quest’anno il premio è andato a una ricerca riguardante la fisica dello stato solido, con una strizzatina d’occhio alle nanotecnologie. Signori, ecco a voi il grafene…

NIDI D’APE E ATOMI IBRIDIZZATI

Molti degli elementi della tavola periodica sono presenti in natura in quelle che prendono il nome di forme allotropiche. Le proprietà di un dato materiale (sia meccaniche, come la resistenza all’abrasione, sia quelle fisiche, come la conducibilità elettrica) infatti, non dipendono unicamente dalle proprietà dei singoli atomi che lo compongono, ma anche da come questi atomi si organizzano in una struttura più o meno ordinata. Ecco quindi che il carbonio amorfo presenta qualità meccaniche e ottiche che sono l’esatto opposto del diamante, anch’esso formato da carbonio. La differenza risiede in come gli atomi si legano tra loro: nel carbonio amorfo non c’è una struttura di base, gli atomi sono legati tra loro da legami più o meno forti, orientati casualmente nello spazio. Intuitivamente capite che una struttura di questo tipo non può garantire grandi doti di resistenza agli stress meccanici (punto di forza del suo fratello in fibra), o qualità fisiche degne di nota. Il diamante invece ha una struttura interna perfettamente tetragonale, che garantisce una rigidità senza pari e che lo rende il materiale più duro esistente. Tuttavia la forma allotropica del carbonio, con cui sono sicuro voi tutti abbiate avuto a che fare almeno una volta, la si può trovare in una qualsiasi cartoleria: sono secoli che l’uomo la usa per scrivere. Nella grafite gli atomi di carbonio si organizzano in strutture bidimensionali impilate l’una sull’altra a formare un blocco di materiale tridimensionale. Se ci fate caso infatti, la grafite ha la tendenza a sfaldarsi molto bene lungo piani ben precisi. Ciascuno di questi piani, dello spessore di un atomo, è a sua volta formato da esagoni di atomi di carbonio uniti tra loro, e prendono il nome di grafene. Il grafene è quindi il “cubetto di Lego” di base per la costruzione di tutti i materiali grafitici, nanotubi in carbonio compresi. Sebbene la sua esistenza non sia mai stato nulla di impensabile in fisica (anzi, modelli di sistemi fisici reali ma con meno dimensioni vengono spesso utilizzati nei corsi introduttivi di fisica perché più semplici), il vero problema era, fino a qualche anno fa, riuscire a isolare un monostrato di carbonio. Tutt’oggi esistono svariate tecniche più o meno costose, dalla crescita epitassiale alle riduzioni con l’idrazina. Allo stato attuale delle cose, non è nemmeno pensabile una produzione a livello industriale di questo materiale, come d’altro canto accade sempre con i materiali sperimentali. Ma le proprietà davvero uniche di questo materiale lo rendono il candidato ideale per sostituire tutti i semiconduttori utilizzati fino ad adesso, e non solo quelli.

LE PROPRIETA’

Il grafene presenta proprietà uniche, sia meccaniche che fisiche. Dal punto di vista meccanico, il grafene è uno dei materiali più forti mai testati, facendo coppia con i nanotubi in carbonio di cui abbiamo già parlato. Possibili future applicazioni in questo campo comprendono i dispositivi NEMS (Nanoelectromechanical systems) ovvero dispositivi che integrano al loro interno funzionalità meccanica ed elettrica su scala nanometrica. In particolare, l’alto rapporto tra superficie e massa rende il grafene il materiale ideale per realizzare sensori e strumenti di rilevazione ad altissima precisione. Allo stato attuale costa ancora troppo estrarre i fogli di grafene dalla normale grafite, anche se tecniche di tipo industriale sono sotto sviluppo. Se poi accoppiamo le proprietà meccaniche a quelle fisiche, le potenziali applicazioni si espandono. Elettricamente parlando, è possibile che il grafene acquisisca le caratteristiche tipiche dei metalli o dei semiconduttori a seconda della forma che gli si dà in fase di produzione. Il grafene può quindi sostituire la base sia per i circuiti integrati e gli elementi conduttori, sia il silicio nei computer del futuro: l’anno scorso proprio al Politecnico di Milano sono riusciti a costruire 4 differenti tipi di porte logiche (ovvero le componenti di base dei microprocessori) utilizzando transistor di grafene.

Alla IBM sono andati oltre, riuscendo superare le prestazioni tipiche dei circuiti basati sul silicio, toccando la stratosferica quota di 100 Ghz di velocità di elaborazione (il processore più costoso che si trova in vendita oggi raggiunge circa i 20Ghz, ndR). Questo risultato è stato raggiunto utilizzando, per la realizzazione dei circuiti, gli stessi macchinari utilizzati con i convenzionali componenti in silicio. Questo aspetto è molto importante, perché significa che nel passaggio da un materiale all’altro ci saranno meno sprechi in termini di tempo perso e di materiali da cambiare.
Le proprietà ottiche del grafene (alta trasparenza nello spettro del visibile) unitamente alle sue possibili caratteristiche elettriche, metalliche e alla resistenza meccanica, ne fanno il materiale adatto a costruire display touch screen ad alta qualità, anche flessibili. Infine, il grafene dovrebbe entrare a far parte dei futuri ultracapacitori, condensatori ad altissima capacità che dovrebbero finire per alimentare, tra le altre cose, le vetture elettriche.
Roba da poco, insomma, eh?

Tesla Was Robbed!

Ben ritrovati, cari lettori di Camminando Scalzi! Il primo articolo di scienza della nuova stagione lo vorrei dedicare a un personaggio la cui importanza in moltissimi campi della fisica moderna è pressoché sconosciuta ai più, e perfino negli ambienti accademici il suo nome ha molto meno risalto di quanto ne meriti. Se avete visto il film “The Prestige” o “Coffee and Cigarettes” (nello sketch con Jack e Meg White), sapete di chi sto parlando. No, non è David Bowie…

TELETRASPORTO E CAPPELLI CHE SCOMPAIONO

Nikola Tesla nacque in Croazia nel 1856. Nel 1875 si iscrisse al politecnico di Graz per studiare ingegneria elettrica, ma mollò gli studi al terzo anno, quando lasciò l’Austria. In quel periodo girò un po’ l’europa, dalla Slovenia alla repubblica Ceca, conoscendo altri scienziati del calibro di Ernst Mach. Di salute piuttosto cagionevole, divenne il principale fautore della prima rete telefonica installata a Budapest. Alla fine si stabilì a Parigi, nel 1882, dove lavorò per la Continental Edison Company. Qui iniziarono i suoi primi studi approfonditi riguardo l’argomento principe della ricerca di quel periodo: l’elettromagnetismo. I primi lavori parigini consistevano in miglioramenti apportati ai macchinari e alle idee che venivano da oltreoceano, da Edison stesso. Ma non si dovette aspettare molto perché Tesla iniziasse a sviluppare il primo vero e proprio motore elettrico asincrono della storia e a studiare l’uso di campi magnetici rotanti. Da questi lavori derivarono i primi di numerosi brevetti, che tuttavia lo scienziato dei Balcani non riuscì mai a sfruttare appieno in vita sua, rifuggendo sempre il denaro. Nel 1884 Tesla arriva in America, alla corte di re Edison, per lavorare sugli inefficienti e costosi generatori a corrente continua (di cui Edison era uno sfegatato fan). L’inventore della lampadina aveva promesso a Tesla una ricompensa di 50.000 dollari (che a quell’epoca potevano considerarsi una somma stratosferica) se fosse riuscito a rendere i generatori produttivi, ma quando Tesla un anno dopo passò a batter cassa, Edison si limitò a fare spallucce. Tesla lasciò immediatamente la compagnia, ed ebbe origine una battaglia tra i due che sfocio poi in una vera e propria “guerra delle correnti” indotta da Edison nei confronti del sistema di distribuzione di energia ideato da Tesla, basato sulla corrente alternata. Il sistema, che è praticamente lo stesso che viene attualmente usato praticamente in tutto il mondo, presentava moltissimi vantaggi rispetto a quello a corrente continua di Edison (incapace di trasmettere su lunghe distanze), ma fu inizialmente ostacolato nella sua diffusione a causa della campagna diffamatoria che venne montata contro di lui e dal fatto che tutti i motori elettrici fin lì costruiti (da Edison) funzionassero a corrente continua.
Abbandonato il lavoro presso la compagnia di Edison, Tesla inizio a lavorare saltuariamente, con l’unico scopo di raccogliere fondi per le proprie ricerche. Sotto questo punto di vista, i suoi lavori e i risultati ottenuti nei suoi esperimenti hanno anticipato o sono stati perlomeno condotti in parallelo rispetto a quelli di altri grandi scienziati del periodo. Forse l’unico appunto che si possa fare a Tesla, al di là del suo personaggio eccentrico e pieno di idiosincrasie, è quello di essere stato un personaggio decisamente poco interessato al valore accademico delle sue scoperte, e probabilmente, se avesse voluto vendersi un po’ di più, avrebbe potuto avere in vita i riconoscimenti che gli sono stati attribuiti postumi. Molti dei suoi lavoro sono poi solo potenziali scoperte rivoluzionarie (in particolare la trasmissione di energia wireless), vuoi perché la tecnologia dell’epoca non permetteva di andare oltre il puro stadio sperimentale, vuoi perché inevitabilmente se disperdi le tue energie su molte ricerche, non hai la possibilità di completarle tutte.

L’EREDITA’ DI UN MITO

Elencare tutti i risultati raggiunti da questo “scienziato pazzo” dell’elettromagnetismo è davvero un impresa titanica: i suoi contributi all’ingegneria elettrica hanno giocato un ruolo importantissimo nello sviluppo dei moderni sistemi di distribuzione e fruizione dell’energia, e sono per lo più di carattere estremamente tecnico. Nel 1899 Tesla si trasferisce nel famoso laboratorio di Colorado Springs, dove in totale solitudine (non era un tipo particolarmente socievole) poté dedicarsi agli studi più avveniristici della sua vita. A questi anni appartengono infatti i lavori che più l’hanno reso famoso. Fece studi sui raggi x (negli stessi anni di Rontgen, studi che valsero allo scienziato tedesco il premio Nobel per la Fisica, nel 1901). Realizzò la trasmissione di segnali radio, forse addirittura prima di quanto non fece Marconi, tant’è che quando ci fu da assegnare il premio allo scienziato italiano per le prime trasmissioni senza fili, ci furono molte polemiche riguardo un eventuale riconoscimento mancato a Tesla. Studiò un metodo per trasmettere la corrente elettrica in modalità wireless sfruttando la conduttività naturale della terra, riuscendo a illuminare con questo metodo una lampadina, e dimostrando che si può trasmettere energia non soltanto con una differenza di potenziale indotta in un conduttore, ma anche con onde che si muovano attraverso lo spazio, nella materia, un effetto che guarda caso, oggi prende il nome di effetto Tesla.  Se provate a pensare a tutti i fattori che è necessario prendere in considerazione e i diversi campi fisici che si devono investigare (dalla fisica dell’atmosfera, all’elettromagnetismo, alla fisica atomica) per ottenere dei risultati concreti in esperimenti per l’epoca avanzatissimi, dovrebbe risultare chiara la portata delle attività di Tesla. Qui non si tratta di studiare la forza agente su un filo percorso da corrente (senza voler togliere nulla a mister Faraday, sia chiaro), ma di riuscire a risolvere problemi molto più pratici con una conoscenza teorica decisamente limitata. Riuscì persino a radiocontrollare una nave per la marina militare, pensando che forse ai soldati sarebbero interessati siluri in grado di essere guidati con precisione sul proprio bersaglio. Nonostante tutto ciò, Tesla morì in una camera di un albergo il 7 gennaio del 1943, solo e povero in canna. Di certo all’immagine di scienziato pazzo con cui è stato ricordato per molto tempo dopo la sua morte hanno contribuito le sue piccole o grandi ossessioni, la sua inattitudine a stringere rapporti sociali con uomini e donne (pochi possono dire di averlo conosciuto, tra i quali un certo Mark Twain) e alle dicerie riguardo a molte invenzioni fantascientifiche e stravaganti, come il suo ipotetico Raggio della Morte. Di recente gli sono stati attribuiti parecchi brevetti negatigli all’epoca, tant’è che in America il brevetto della radio appartenne per un certo periodo a Marconi, e per un altro allo scienziato croato. Il SI delle unità di misura adotta il tesla per misurare i campi magnetici; inoltre, ultimo ma di certo non per importanza, Tesla è probabilmente lo scienziato più citato nella cultura fantascientifica per quanto riguarda videogiochi, film e racconti di fantascienza: può sembrare poco, ma centinaia di migliaia di giovani nerd ogni giorno lo ringraziano per le bobine, le armature e i fuciloni elettrici che portano il suo nome. E ora scusatemi, ma devo capire che fine ha fatto la mia gatta dopo che ho cercato di teletrasportarla dalla mansarda alla cantina…


Da “Coffee and Cigarettes” di Jim Jarmusch, 2003.

Sicurezza stradale e tecnologia

Cari lettori di Camminando Scalzi, quest’oggi vorrei affrontare con voi un tema che dovrebbe stare a cuore un po’ a tutti: la sicurezza stradale. Troppe persone trovano prematuramente la morte sulle nostre strade ogni weekend e non solo. Le cause degli incidenti possono essere le più varie, e possono essere raggruppate in tre distinte categorie: quelle attribuibili al conducente del mezzo, quelle riconducibili a condizioni ambientali e, infine, quelle provocate da guasti di vario genere e natura. Statisticamente a farla da padrona sono sicuramente i primi due ambiti, spesso in combinazione tra loro. Dando per scontato che chi scrive, e la maggior parte dei lettori, siano convinti che nessuno dovrebbe mettersi alla guida di un qualsiasi veicolo a motore in condizioni di grave alterazione psico-fisica, ho provato a pensare come fosse possibile mutuare tecnologie già esistenti – e applicate in altri campi – per incrementare il livello di sicurezza sulle nostre strade. I dispositivi che ho in mente di installare su un’ipotetica auto del futuro sono tutti già pronti e ben affermati, per cui sembra proprio che l’unico deterrente contro il loro utilizzo in ambito automobilistico sia il loro costo.

PASSIVO O ATTIVO?

Il campo da cui attingere a piene mani riguardo le innovazioni da introdurre in campo automobilistico è sicuramente quello aereonautico: la qualità costruttiva dei moderni aereoplani è fuori discussione, così come la loro dotazione di sistemi tecnologici all’avanguardia. La sicurezza passiva è quella che vi permette di sopravvivere dopo essservi schiantati a 140 all’ora contro un muro in cemento armato: scocche rinforzate in titanio, airbag, parabrezza in plexiglass non frantumabile, sono tutti accorgimenti che hanno come scopo il cercare di limitare il più possibile i danni. Certo, sarebbe meglio non andarsi a schiantare contro quel maledetto muro, ed è qui che entrano in gioco i sistemi di sicurezza attiva, che in parte già ritroviamo sulle auto moderne: controllo elettronico della stabilità, ABS, mappature delle centraline elettroniche variabili sono dispositivi già ampiamente collaudati e presenti sui nostri veicoli, che tuttavia concentrano la loro azione esclusivamente sull’analisi della risposta del veicolo al fondo stradale, senza sapere effettivamente quel che sta succedendo al di fuori della macchina. Pare quindi che la prima mossa da fare sia intervenire sulla “consapevolezza” che il mezzo ha dell’ambiente che lo circonda, dotandolo di nuovi occhi e nuove orecchie elettroniche.

PRECISIONE AL MILLIMETRO

Il radar è un invenzione che oramai ha superato i 60 anni di età: nato durante la seconda guerra mondiale come mezzo per individuare le formazioni di bombardieri nemici, oggi è lo strumento principe per quanto riguarda la navigazione aeronavale. Il RAdio Detection And Ranging basa il proprio funzionamento su un emettitore di onde radio (o microonde) e su un antenna per la ricezione delle stesse. Solitamente ricevitore ed emettitore sono posti nella medesima posizione, in maniera tale da compattare il tutto per un’eventuale installazione a bordo di veicoli.
Quando le onde trasmesse colpiscono un oggetto, vengono riflesse in tutte le direzioni. Il segnale viene quindi in parte reirradiato anche indietro, verso la direzione di provenienza, e misurando il delay temporale tra emissione e ricezione è possibile stabilire la distanza che ci separa dall’oggetto rilevato. Grazie all’effetto doppler (ovvero il leggero spostamento in frequenza nell’onda causato dal moto relativo tra sorgente e ricevitore) è possibile inoltre misurare anche la velocità di tale oggetto. I radar hanno raggiunto oramai capacità tali da poter disegnare in tempo reale una mappa ambientale di ciò che ci circonda praticamente in tempo reale, con precisione nell’ordine del millimetro. Capite bene che avere a disposizione un sistema di rilevamento praticamente insensibile alle condizioni di visibilità più o meno buone che siamo abituati ad affrontare è un grosso passo avanti per evitare incidenti dovuti alla pioggia battente, alla nebbia o a quant’altro vi impedisca di vedere bene dove state andando.

VEDERCI AL BUIO

Chiunque guidi da un po’ di tempo, sa perfettamente quanto drasticamente cali la visibilità di notte, soprattutto per chi, come il sottoscritto, porta gli occhiali. I fari fanno il loro dovere fino a un certo punto, dato che per evitare di bruciare la retina a chi ci precede o incrocia, essi sono studiati in maniera tale da non estendersi oltre 25 / 30 metri dalla vettura. Oltretutto in caso di nevicata molto fitta o nebbia, l’uso dei fari può addirittura rivelarsi controproducente, dato che entrambi questi fenomeni atmosferici tendono a riflettere la luce piuttosto efficacemente.
Da tempo oramai in ambito militare si utilizzano sistemi di visione notturna che tralasciano la parte di illuminazione nell’ottico per concentrarsi sull’intensificazione della luce che già c’è nell’ambiente, o utilizzano fasci di raggi infrarossi per illuminare l’ambiente circostante. Oltre a garantire una visione chiara e pulita dell’ambiente circostante anche in totale assenza di luce visibile, i visori che combinano questo tipo di tecnologia possono essere studiati in maniera tale da adattarsi continuamente alle condizini ambientali. In questo modo forti e improvvise sorgenti di luce che dovessere comparire nel campo visivo verrebbero automaticamente attenuate, scongiurando il rischio di venirne abbagliati.

A TESTA ALTA

Certo, tutte queste informazioni aggiuntive messe a disposizione dai nuovi dispositivi sarebbero inutili, se non le si potessero trasmettere al guidatore in maniera adeguata. Rappresenterebbero addirittura un rischio aggiuntivo, dato che per accedervi il conducende dovrebbe distogliere lo sguardo dalla strada. Insomma avere schermo radar, telecamera per la visione notturna, GPS e quant’altro ognuno con il suo bel display, alla fine dei conti sarebbe decisamente poco pratico. Questo è quello che devono aver pensato anche i progettisti dei primi aviogetti militari, quando si resero conto che forse non era il caso di far distogliere troppo lo sguardo dei piloti dal vetro anteriore mentre volavano a più di 900 km/h. È così che nacque l’HUD, acronimo di Head Up Display. In pratica si tratta di un visore a proiezione olografica completamente trasparente, sul quale vengono visualizzate informazioni come velocità, orientamento dell’aereo rotta, bersagli inquadrati dal radar e così via: sebbene la strumentazione di un aereo moderno sia ricca di lancette, quadranti e affini, le informazioni proiettate sull’HUD sono più che sufficienti a far volare (e soprattutto, combattere) l’aereo. Ora, provate a immaginare un parabrezza anteriore in cui venga integrato un sistema di questo tipo, collegato a tutti i dispositivi che ho elencato prima, e in grado quindi di avvisarvi di eventuali ostacoli evidenziandoli direttamente davanti ai vostri occhi, piuttosto che di colorare di rosso la strada da percorrere secondo il vostro GPS e via di questo passo. Insomma sarete consapevoli di ogni aspetto riguardante la guida senza mai dover togliere gli occhi dalla strada, che vi apparirà più chiara che mai. E se qualcuno vi sorpassa in curva sulla destra a 180, potete comodamente agganciarlo con il vostro radar, lanciare un simpaticissimo missile terra-terra e godervi in tempo reale la deflagrazione ben contornata dal vostro display a proiezione!

GLI AUTOMATISMI DEL CASO

Infine, volevo porre la vostra attenzione su un aspetto che esula un po’ dalle tecnologie che vi ho esposto sino ad ora. Sì, perchè, per quanto efficaci, oltre al loro costo economico c’è da considerare anche le loro richieste energetiche, che le attuali batterie di automobile non sono minimamente in grado di soddisfare. Al di là dell’applicabilità futura di quel di cui abbiamo finora discusso, tutti questi sistemi partono dal presupposto che il conducente sia pienamente in grado di intendere e di volere, se non altro per essere in grado di comprendere ciò che il mezzo sta cercando di dirgli. Tuttavia ci sono casi in cui, vuoi per malessere fisico, vuoi per abuso di sostanza psicotrope, vuoi per botte di sonno, il conducente perde il controllo della vettura. Insomma, se vi addormentate al volante e sterzate di colpo, non speriate che il sistema elettronico di stabilità vi tenga dritti in strada… Eppure, lo si potrebbe fare. Accelerometri che misurino eventuali sterzate troppo brusche e pericolose e le blocchino sul nascere (anche qui, l’aeronautica fa da precursore, con i limitatori di accelerazione g studiati per evitare di far svenire i piloti che manovrano duro), sensori di prossimità per rilevare auto e ostacoli nelle immediate vicinanze, collegate ad un sistema di frenatura automatica, che intervenga nel caso di “inchiodata” di quello che vi precede e così via, sono cose tutto sommato economiche da implementare che, se studiate con un minimo di intelligenza e praticità, possono davvero salvare delle vite. E soprattutto, un’ultima cosa: se il limite massimo di velocità è 130 all’ora, perchè costruire macchine che superano ABBONDANTEMENTE questo valore? Ad postera…

Touch & Go

Uno degli oggetti di uso più comune che negli ultimi anni ha subìto un’evoluzione spaventosa è sicuramente il telefono cellulare. Pareva già fantascienza, qualche anno fa, quando iniziarono a uscire i primi modelli dotati di fotocamera digitale integrata, e oggi come oggi è difficile trovare modelli che limitino le loro funzioni a quelle di un semplice telefono: telefonare e mandare messaggi. Connettività Wi-Fi, fotocamere con ottiche di qualità, sensori da svariati megapixel, capacità di riprodurre mp3: oramai il cellulare è diventato un mezzo di entertainment e utilità a 360 gradi, in grado di sostituire in condizioni di emergenza apparecchi elettronici come ipod vari e fotocamere digitali. Certo la qualità non è la stessa, ma è il prezzo che si paga per la versatilità. Una delle ultime aggiunte in questo campo riguarda l’integrazione dei moduli GPS all’interno dei telefonini più avanzati. All’aumentare delle funzioni disponibili però deve fare da contraltare una migliore interfaccia utente, in grado di gestire le nuove funzionalità in maniera veloce e precisa: insomma volete girarvi Milano a piedi sfruttando la guida del vostro fido telefonino dotato di modulo satellitare integrato: cosa c’è di meglio che toccare direttamente la mappa visualizzata sullo schermo per ottenere magari informazioni riguardo a quel particolare monumento o, preda di una fame chimica senza precedenti, ricercare la prima tavola calda nel raggio di 500 metri ?

TOUCHSCREEN

Se si escludono i joystick con il ritorno di forza (tipo il famoso “Sidewinder Force Feedback Pro”), il touch screen è la prima periferica elettronica a funzionare sia come dispositivo di input, che di output. L’utente interagisce direttamente con i contenuti visualizzati sullo schermo semplicemente toccandoli. Sebbene le tecnologie che permettono tutto questo siano molte e svariate, in commercio ne esistono principalmente due tipologie passive: capacitiva e resistiva. Come potete intuire dai loro nomi, si basano entrambe sul comportamento elettrico che viene più o meno modificato dal contatto tra schermo e l’input meccanico (il vostro dito).Nei sensori capacitivi, la superficie esterna degli stessi viene ricoperta da un sottile film metallico (quindi conduttore), che viene poi mantenuto sotto tensione. Questa tensione è assolutamente uniforme sino a che un conduttore (il vostro dito interpreta piuttosto bene questo ruolo) viene messo a contatto con la stessa. Nel punto di contatto avverrà quindi una variazione della capacità elettrica. Questa variazione viene “letta” da una matrice di condensatori posti al di sotto della superficie del sensore o dello schermo. Semplice, preciso e pulito, sempre che lo siano le vostre mani. Il maggiore pregio della tecnologia capacitiva sono i suoi tempi di risposta, estremamente brevi. Inoltre il fatto di funzionare esclusivamente tramite conduttori permette agli schermi di venir puliti senza indurre input accidentali. Dall’altro lato della medaglia, gli schermi capacitivi sono più costosi, e in inverno doversi togliere i guanti con 10 gradi sottozzero per scrivere un messaggino sullo schermo non è proprio il massimo della gioia. Gli schermo resistivi, se possibile sono ancora più semplici: due strati flessibili ricoperti di materiale conduttivo vengono tenuti separati da un sottile strato di aria. La pressione su un punto della superficie mette in contatto i due strati, e il passaggio di corrente viene registrato anche qui da una matrice di semplici contatti elettrici. Essendo sensibile alla pressione, lo schermo resistivo può essere utilizzato con qualsiasi oggetto, anche non conduttivo. Sono schermi tendenzialmente meno costosi da produrre rispetto ai loro cugini capacitivi, ma non hanno lo stesso tempo di risposta. Possono tuttavia essere anche di tipo multitouch, ovvero in grado di gestire più pressioni contemporaneamente, come mamma Apple ha voluto insegnarci ultimamente.
GPS

Ricordo ancora con un po’ di nostalgia la prima volta che io e il GPS ci siamo conosciuti: correva l’estate del 1998 e mio cuGGino più grande se ne arrivò in montagna sfoggiando una sorta di parente grasso del tricorder di Star Trek in gomma nera e gialla. Era enorme, pesante, limitato nelle funzioni, ma pur sempre terribilmente fico. Le prime unità GPS non erano in grado di visualizzare le mappe, fornendo unicamente le coordinate spaziali. La loro precisione si aggirava attorno ai 100m , per cui erano assolutamente inutilizzabili per una navigazione di precisione. Ma il fatto di avere in mano un aggeggio che fosse in grado di dirti a qualunque ora del giorno e della notte in qualsiasi luogo tu ti trovassi la tua posizione sulla terra, beh era una cosa che io trovavo sensazionale. Il Global Positioning System attualmente vanta una costellazione di 31 satelliti al suo attivo, ognuno dei quali percorre due orbite complete al giorno. Ogni satellite conosce perfettamente la propria posizione, l’ora esatta (grazie a ben 4 orologi atomici sincronizzati) e la posizione relativa di tutti i suoi fratelli in orbita. Queste informazioni vengono trasmesse con un segnale a microonde che viene raccolto dal ricevitore, che calcola la distanza da ciascun satellite misurando il tempo che il segnale impiega a raggiungerlo. Dal canto suo il vostro GPS non può sapere quando è partito il segnale dal satellite, per cui ecco spiegata la presenza degli orologi sui satelliti: confrontando l’ora ricevuta dal segnale con il proprio orologio interno, il navigatore è in grado di calcolare le distanze dei satelliti e, grazie alle altre informazioni contenute nel segnale, la propria posizione.

Occorrono almeno 3 satelliti per conoscere la propria posizione in 2D (ovvero latitudine e longitudine), e almeno 4 per ottenere anche l’altitudine. Ogni satellite aggiuntivo fornisce ulteriori informazione e quindi velocizza il processo di calcolo. Il GPS attuale non ha più le limitazioni che venivano imposte all’inizio alle apparecchiature civili, e allo stato attuale è in grado di garantire una precisione nell’ordine della decina di metri. Rimangono comunque alcune restrizioni sulla quota massima a cui può funzionare (18.000 metri) e anche sulla velocità (515 m/s), per evitare che apparecchiature civili possano fungere da sistema di guida per eventuali missili a lungo raggio. L’unica pecca del GPS è forse la lentezza con cui acquisisce la propria posizione: in media ci vogliono tra i 45 e i 90 secondi dall’attivazione del dispositivo. Per questo, e per risparmiare anche preziosa batteria, i cellulari di ultima generazione fanno uso dell’ Assisted GPS: in pratica, tramite la normale rete di telefonia mobile, si fanno pervenire al terminale le informazioni riguardanti i satelliti visibili dalla cella a cui l’utente risulta connesso. Assumendo che i satelliti in vista dall’utente siano quelli in vista dalla cella, il calcolo della posizione iniziale risulta molto più veloce, dato che in pratica il GPS sa già cosa andare a cercare e non deve passare il tempo a discriminare tra segnali troppo deboli o che non lo soddisfano appieno. Questo sistema è particolarmente utile in città, dove la presenza di edifici alti può oscurare i cieli al vostro ricevitore, allungando il tempo che il satellite impiega a capire a quali satelliti agganciarsi.

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox]

Le domande senza risposta della fisica moderna

Se andate dall’uomo della strada a chiedergli quale sia la sua concezione di scienziato in generale, con tutta probabilità egli vi risponderà che uno scienziato è colui che cerca e dà risposte. Tuttavia lo scopo della scienza non è tanto quello di dare delle risposte, quanto quello di porsi le domande giuste. Ogni risposta, per quanto dettagliata possa essere, sarà sempre incompleta di fronte a quella che è la natura delle cose. Ogni risposta inevitabilmente aumenta il numero di domande a cui gli scienziati devono lavorare per progredire nella nostra conoscenza delle regole dell’universo, e capita nel mondo attuale che le cose che noi conosciamo siano in realtà una minima parte degli innumerevoli fenomeni cui la natura può dare origine. I grandi interrogativi esistenziali sono appannaggio di filosofia e religioni, ciononostante alcuni degli aspetti più evidenti del nostro universo sono anche quelli che sollevano le questioni più importanti.

MATERIA ED ANTIMATERIA

Uno dei meccanismi che ancora non si sono compresi fino in fondo, riguarda la creazione della materia e dell’antimateria (ne abbiamo già parlato, ricordate?). Appare evidente come la porzione di universo che possiamo osservare sia formata nella sua quasi totalità da materia ordinaria, a scapito dell’antimateria che rimane confinata alle grandi reazioni energetiche nel cosmo o negli acceleratori di particelle. Insomma, se in queste reazioni materia ed antimateria vengono prodotte assieme, com’è possibile che ci sia attualmente un universo composto unicamente da una sola di queste due entità? La spiegazione che gli scienziati si danno sembrerebbe essere corretta ma parziale: in natura esiste una particolare violazione di questa simmetria (detta simmetria CP), che spiega qualitativamente la possibilità che la materia prevalga sull’antimateria. Il problema è che la frequenza con cui la rottura della simmetria si verifica non è sufficiente a spiegare l’enorme sproporzione che vige nel nostro universo. Si spera che con i prossimi esperimenti a LHC, in grado di creare in piccolo le condizioni immediatamente successive al Big Bang, si possano svelare i meccanismi più intimi del mondo microscopico, tra cui eventuali nuove vie per cui la simmetria CP venga violata più frequentemente.

IL DESTINO DELL’UNIVERSO

Oggi sappiamo con certezza che il nostro universo continua ad espandersi in seguito all’iniziale esplosione del Big Bang. L’astrofisico Edwin Hubble nel 1929 enunciò una legge tanto importante quanto semplice: la velocità di allontanamento delle galassie da noi è tanto grande quanto è maggiore la distanza che ci separa da esse. Le teorie del Big Bang ricevettero così una notevole conferma sperimentale, e oramai il concetto inerente la nascita dell’universo come un’immane esplosione è ben presente nell’immaginario collettivo. Quel che ancora non si è capito bene, è la fine che farà il nostro universo. Appurato che la situazione in cui ci troviamo non è statica, ma dinamica, si aprono di fronte a noi due possibilità, che prendono il nome di universo aperto e universo chiuso. In un universo aperto l’espansione continuerà all’infinito, iniziando a rallentare sempre più ma senza mai fermarsi, e aumentando il famoso “grado di entropia”, cioè la quantità di caos. Dato che energia e materia non si creano, ma tutt’al più possono essere trasformate l’una nell’altra, ne consegue che la somma di queste due entità rimane costante nel tempo. Per cui in un universo in espansione farà sempre più freddo, essendoci sempre più spazio a disposizione, fino a che le ultime stelle finiranno di bruciare e non ci sarà una densità di energia o materia sufficiente a innescare la formazione di nuovi astri.
La teoria dell’universo chiuso invece prevede che a un certo punto l’espansione si fermi sotto l’influsso dell’attrazione gravitazionale operata dalla materia, e inizi una fase di contrazione che porterebbe infine ad un Big Crunch: così come il Big Bang è stata un esplosione partita da un singolo punto geometrico nello spazio, il Big Crunch rappresenterebbe il fenomeno opposto, con la materia che finisce per concentrarsi in un’unica singolarità sotto l’effetto della propria attrazione. L’effetto sarebbe quello di creare un secondo Big Bang e così via, con l’universo che continua a pulsare nel tempo tra incredibili esplosioni ed altrettanto sbalorditive implosioni.

MATERIA ED ENERGIA OSCURA

“È una situazione alquanto imbarazzante dover ammettere che non riusciamo a trovare il 90 per cento della materia dell’Universo.” così si espresse l’astrofisico Bruce Margon in un articolo pubblicato sul New York Times qualche anno fa. La situazione, detta in parole povere, è questa: per quel che noi vediamo e percepiamo attraverso i nostri strumenti, il cosmo non dovrebbe esistere così come lo vediamo. Le galassie non dovrebbero stare assieme, la loro velocità di rotazione dovrebbe essere differente, e dovrebbero essere a uno stadio di vita molto più acerbo rispetto alla loro attuale età cosmologica. Insomma, là fuori ci dev’essere per forza qualcosa che noi non riusciamo a vedere, percepire, identificare. L’idea che energia e materia siano trasformabili l’una nell’altra risale alla famosa formula della relatività di Einstein E = mc^2. Facendo i dovuti calcoli, le masse di materia oscura e ordinaria rappresentano rispettivamente l’80% e il 20 % del totale dell’universo, che tradotte in energia significa il 23% e il 4,6% circa. Ora capite bene che 23 + 4,6 non fa di certo 100, per cui così come alla materia ordinaria si accompagnano i quanti di energia che tutti noi conosciamo con il nome di fotoni, analogamente per la materia oscura dovrà esserci un altrettanto oscura energia che bilanci il totale dell’equazione. La presenza della dark energy appare quanto mai necessaria, dato che dalle ultime osservazioni effettuate, l’espansione dell’universo sembra stia accelerando, ad un ritmo tale da risultare insostenibile per l’energia ordinaria. Da che cosa siano formate queste due entità è tutt’ora un mistero, sebbene ci siano molte teorie sulla loro natura, molte delle quali tirano in ballo la teoria delle stringhe supersimmetrica e derivati (compresa una teoria ai limiti della fantascienza, che comprende la gravitazione di invisibili mondi paralleli, ndObi). La situazione della ricerca è in realtà molto meno anomala di quanto si possa credere: praticamente tutta la fisica sub atomica risulta a conti fatti inosservabile direttamente, e quando qualcuno dice di aver trovato una nuova particella, in realtà vi sta dicendo che ha osservato le prove della sua esistenza. Nessuno ha mai visto un neutrone, un protone o un elettrone direttamente (non avrebbe nemmeno troppo senso affermarlo, visto che le particelle hanno dimensioni molto minori rispetto alla lunghezza d’onda della luce), tuttavia nessuno scienziato degno di questo nome si sognerebbe mai di dirvi che non esistono. L’unica certezza che abbiamo è che, come in molti altri campi, i misteri da risolvere sono ancora moltissimi e che, mai come oggi, the truth is out there!

Il dono della vita

[stextbox id=”custom” big=”true”]Torniamo ad occuparci di trapianto d’organi, argomento già trattato in un articolo dello scorso anno. Il post di oggi è scritto da Luigi Sambataro, al suo secondo contributo per Camminando Scalzi.it . Buona lettura. [/stextbox]

Il 30 maggio 2010 si svolgerà in Italia la “Giornata nazionale per la donazione degli organi“. In teoria in questi casi di direbbe: ” In tutte le piazze italiane…“, purtroppo in questa occasione non sarà così. Non sarà così per diversi motivi: perché in Italia la donazione di organi è quasi ignorata a livello pubblicitario, perché a molti fa paura l’idea di dover pensare da vivi alla morte o forse solo perché per molti è una cosa non condivisa come ideale. Tutto ciò porta anche ad un numero basso di volontari.

Avendo firmato la mia prima tessera di assenso alla donazione all’età di 16 anni ed essendomi iscritto all’Aido all’età di 20, mi sono sempre impegnato affinché il messaggio “donare gli organi è essenziale, è giusto, è un grande gesto” prendesse piede il più possibile nella mentalità della gente comune. Mi sono venuto quindi a trovare spesso in conversazioni sul tema anche con molte persone che non la pensavano come me ma che , allo stesso tempo, mi hanno un po’ illuminato su quali fossero le remore più grandi in merito all’argomento. Ne è venuto fuori che le paure più grandi sono essenzialmente due.

La prima paura è questa: “Ho paura che essendo in lista per la donazione, se un giorno dovesse accadermi qualcosa, i medici potrebbero non fare tutto il possibile per salvarmi” .
Già in questa prima affermazione, a parte una grande paura della possibilità di quel momento, emerge tanta disinformazione. Innanzi tutto si mette in dubbio la professionalità del medico e il suo giuramento d’Ippocrate, che lo obbliga a ” […] perseguire come scopi esclusivi la difesa della vita, la tutela della salute fisica e psichica dell’uomo e il sollievo della sofferenza, cui ispirerò con responsabilità e costante impegno scientifico, culturale e sociale, ogni mio atto professionale; di non compiere mai atti idonei a provocare deliberatamente la morte di un paziente […] “. In secondo luogo si disconosce qual è il momento esatto in cui si può effettivamente dichiarare un paziente deceduto e quando si può effettivamente procedere con l’espianto “[…] Quando sia stata accertata e documentata la morte encefalica o morte cerebrale, stato definitivo e irreversibile. L’accertamento e la certificazione di morte sono effettuati da un collegio di tre medici (medico legale, anestesista-rianimatore, neurofisiopatologo) diversi da chi ha constatato per primo la morte e indipendenti dall’équipe che effettuerà il prelievo e trapianto. Questi medici accertano la cessazione totale e irreversibile di ogni attività del cervello per un periodo di osservazione non inferiore a 6 ore.”

La seconda grande paura è questa: ” Mi rifiuto di pensare al corpo mio o di un mio caro martoriato e sezionato dopo la morte“. Anche questa potrebbe essere una paura o meglio ancora un rifiuto plausibile, ma su questo cosa si potrebbe dire? Non ci basta un’intera vita terrena per preoccuparci del nostro aspetto esteriore? Non potremmo smettere, almeno dopo morti, di preoccuparci di noi stessi e pensare magari agli altri? E poi, hai mai pensato a cosa succederebbe in ogni caso a un corpo umano diversi giorni dopo la cessazione di tutte le funzioni vitali? Quale vantaggio ne deriverebbe per te dall’ottima conservazione del suo stato esteriore dopo la morte?

Queste sono solo le paure che maggiormente la gente mi ha manifestato, paure lecite, ma che non sforziamo molto di lenire. Poca informazione, poca pubblicità, poco interesse in merito all’argomento.

Da qualche tempo ho anche fondato un gruppo su Facebook, al quale hanno aderito tantissime persone, tra le quali medici, trapiantati, familiari di trapiantati e familiari di donatori, che sono lì per raccontare la loro esperienza, per dare informazioni utili e reali. Io credo che basti parlare 10 secondi con una persona trapiantata, che si è vista salvare la vita, per capire quanto importante per loro possa essere un gesto che, in fin dei conti, una volta deceduti per noi non ha più alcuna conseguenza se non quella di aver ridato la vita o la gioia di vivere a un’altra persona. Sul sito AIDO, a questa pagina http://www.aido.it/index.php?id=1&faq=14 trovate tutte le risposte ai vostri possibili dubbi, incertezze ed anche il modulo per aderire formalmente all’associazione.

La donazione d’organi, a mio modesto parere, verrebbe agevolata se in Italia venisse data la possibilità di scegliere anche sull’eutanasia, ma questo è un altro discorso che affronteremo magari un’altra volta.

Concludo esprimendo ciò che rappresenta per me la donazione di organi e facendo un appello a tutti voi. Io non lo vedo neanche come un gesto di generosità, ma esclusivamente come un gesto dovuto nei confronti di chi avrà ancora un’intera vita davanti… Per una vita che si spegne ne possiamo illuminare molte altre, quindi doniamo e diffondiamo il valore di questo gesto.

Luigi Sambataro

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox]