Piove, Governo ladro!

Il clima, si sa, gioca brutti scherzi all’uomo dalla notte dei tempi. Siccità, alluvioni, tempeste, tifoni e bufere sono fenomeni prevedibili con precisione solo in parte, e le nostre possibilità d’intervento in questi ambiti sono limitate quasi esclusivamente a limitare i possibili danni derivanti dai fenomeni atmosferici. Tuttavia quel “quasi” si è  fatto sempre più importante nel corso degli anni, man mano che l’avanzamento tecnologico e la comprensione di certi meccanismi sono aumentati. Senza arrivare a parlare di terraformazione e geoingegneria, per ora appannaggio della fantascienza, o della danza della pioggia degli indiani (appannaggio in questo caso degli sciamani… Per chi ci crede), il controllo del clima è una realtà, molto più antica di quel che si pensa.

La più semplice e vecchia tecnica di controllo del clima è basata su un oggetto arcinoto a chiunque si diletti con l’hobby degli aquiloni. Il parafulmine venne “storicamente” inventato da Benjamin Franklin nel 1749, tramite il famoso esperimento della chiave. A posteriori si può essere piuttosto sicuri del fatto che se un fulmine avesse realmente colpito l’aquilone, Franklin si sarebbe preso una briscola da qualche kiloampère, che gli avrebbe lasciato poche speranze riguardo la possibilità di non cuocere dentro ai propri vestiti. Il lavoro del dotto americano è comunque molto importante, in quanto l’aquilone è stato in grado di raccogliere comunque delle cariche dall’atmosfera satura di elettricità di un’imminente tempesta, rivelando la natura dei fulmini e permettendo lo sviluppo di uno strumento in grado di controllare un fenomeno generalmente considerato come totalmente casuale.

Più di recente è apparsa sui giornali la notizia riguardante alcuni scienziati che affermano di essere riusciti a creare più di 50 tempeste artificiali sopra i cieli di Abu Dhabi, capitale degli emirati arabi uniti, arrivando addirittura a ottenere perfino delle grandinate. Per favorire la formazione di queste tempeste, gli scienziati hanno utilizzato degli ionizzatori di aria per generare carica statica nell’atmosfera, una condizione simile a quella presente all’interno di una tempesta di fulmini. La fisica ha fatto il resto e, sebbene i risultati non siano chiari e facilmente dimostrabili in termini teorici, il fatto che abbia grandinato in un luogo le cui le precipitazioni annue equivalgono come quantità a quelle che ci sono in un’ora nel mio bagno suggerisce che il metodo utilizzato ha di sicuro delle potenzialità, quanto meno per quanto riguarda la formazione della squadra olimpica di sci alpino dell’Arabia Saudita.

Metodi meno fantascientifici prendono il nome di cloud seeding e si basano sull’indurre reazioni chimiche a mezzo di differenti sostanze, che favoriscono la condensazione del vapore acqueo atmosferico, determinando la formazione di nuvoloni carichi di pioggia. Metodologie di cloud seeding vengono regolarmente impiegate in Cina, Stati Uniti e Russia, nelle zone ove la siccità la fa da padrona. Le sostanze più utilizzate sono il ghiaccio secco (anidride carbonica congelata) e lo ioduro d’argento, in genere nebulizzati direttamente nell’atmosfera tramite degli aerei appositamente modificati. La condizione necessaria affinché il meccanismo funzioni è la presenza di acqua nella forma di vapore, la cui temperatura sia al di sotto dello zero celsius. La presenza dello ioduro di argento, che ha una struttura cristallina simile a quella del ghiaccio, induce la nucleazione (ovvero la formazione di cristalli) a partire dalle particelle di vapore a bassa temperatura. Man mano che questi cristalli aumentano di dimensione (e quindi di peso), possono iniziare a cadere verso il suolo come neve o pioggia se, come più frequentemente accade, ritransiscono allo stato liquido. Oltre a favorire la generazione della pioggia, questa tecnica ha anche il non indifferente vantaggio di limitare l’insorgenza dei fulmini: essi infatti sono favoriti dalla presenza di vapore acqueo nell’atmosfera, dato che la frizione tra le particelle determina l’accumulo di carica elettrostatica che poi si trasforma in scarica. Diminuendo il numero delle particelle (aumentandone le dimensioni), si genera meno carica dato che ci sono meno collisioni.

Esperimenti nella direzione opposta a quanto visto finora sono stati condotti tra gli anni ’60 e ’80 in America. L’obbiettivo del progetto Stormfury era quello di smorzare la forza degli uragani tropicali. L’ipotesi di base era che introducendo lo ioduro all’interno del ciclone, si promuoveva la formazione di un secondo “occhio” (la zona centrale della tempesta, dove le situazione atmosferica è decisamente più calma rispetto al resto), concentrico a quello originale ma più grande. Questo determina variazioni di pressione più deboli, e quindi venti meno intensi. Anche una variazione limitata è importante, dato che il danno potenziale provocato da un uragano cresce come il quadrato della velocità delle masse d’aria che mette in moto. Il progetto Stormfury alla fine non ha prodotto i risultati sperati, sebbene siano state riscontrate delle variazioni significative nella struttura degli uragani, che possono essere tuttavia spiegate anche attraverso cause naturali. Al di là del fatto che pilotare un aereo all’interno di un uragano tropicale non è esattamente l’attività maggiormente esente da rischi del mondo, c’è ancora molto lavoro da fare per quanto riguarda i modelli matematici che descrivono l’evoluzione dei fenomeni climatici, dato che uno dei principali limiti di questo genere di attività è dato dalla mancanza di uragani che siano “candidati ideali” al seeding.

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox]

Da Ginevra con furore.

Uno dei primi articoli che mi sono trovato a scrivere all’inizio della mia esperienza con Camminando Scalzi – poco più di un anno fa – trattava di LHC, in un periodo in cui l’acceleratore europeo era balzato agli onori delle cronache per presunte catastrofi naturali imminenti che si sarebbero dovute verificare a causa delle altissime densità di energia derivanti dalle reazioni scatenate all’interno dei 27 km di tunnel che corrono sotto Ginevra. Bene, a un anno di distanza, possiamo affermare con certezza due cose: la prima è che nessun buco nero ha ancora inghiottito la terra; la seconda è che il macchinone, dopo un po’ di problemi iniziali, funziona ottimamente, e sputa fuori dati in quantità industriale. Ecco quel che si è scoperto, in un anno di esperimenti al CERN.

IMPORTANTI CONFERME

I primi esperimenti condotti con LHC hanno riguardato le collisioni tra protoni, condotte a energie attorno ai 7 TeV, ovvero circà metà della massima energia attualmente raggiungibile. Sono state raccolte importanti conferme a proposito del Modello Standard, ovvero il modello che regola tutto quel che sappiamo della fisica delle particelle e delle alte energie. Dalle parole del direttore generale del CERN Rolf Heuer: “riscoprire i nostri vecchi amici nel mondo delle particelle mostra che gli esperimenti di LHC sono pronti ad avventurarsi in nuovi territori”, e se lo dice lui c’è da fidarsi. Insomma, la fase che si è appena conclusa può essere considerata un po’ come il warm up di qualcosa di ben più nuovo. A parte infatti ulteriori indagini riguardo la natura dell’antimateria e la sua assenza all’interno dell’universo conosciuto (un problema di cui avevamo già discusso, ricordate?), questi primi test hanno fatto da test bench avanzato per il sistema CERN nel suo complesso, e i loro dati servono nella duplice funzione di ricerca e di baseline per le future misurazioni.

NUOVE PROSPETTIVE

Le nuove misure che verranno condotte a breve con LHC saranno incentrate invece sull’analisi delle collisioni tra ioni di piombo. Essendo molto più massivo di un singolo protone, un nucleo di piombo è in grado di sprigionare molta più energia nei suoi impatti. Maggiore energia disponibile significa migliori capacità di investigazione della materia e delle regole che ne determinano le trasformazioni. L’impatto di ioni pesanti come quelli di piombo permetterebbe di creare quello che viene definito come plasma di quark e gluoni (rispettivamente, le componenti interne delle particelle più massive e la particella che permette loro di stare attaccate), le cui caratteristiche dovrebbero essere affini a quelle della materia che permeava i primissimi istanti di vita del nostro universo. A quell’epoca infatti la materia come la conosciamo oggi non sarebbe mai potuta esistere: troppa radiazione, troppo calore perché i quark potessero legarsi tra loro attraverso i gluoni, formando protoni e neutroni. Le collisioni tra ioni pesanti in LHC permettono di concentrare sufficiente energia in un ristretto volume di spazio, determinando la formazione di piccole “gocce” di questa materia primordiale, la cui creazione è segnalata da un vasto range di segnali misurabili.I primi risultati mostrano come questo plasma si comporti in effetti come un liquido perfetto, ovvero sia in grado di scorrere su sé stesso senza attrito. Queste caratteristiche, apparentemente poco importanti nell’ottica dei risultati che si vogliono ottenere, in realtà hanno implicazioni dirette sulle ipotesi che sono state effettuate riguardo ai possibili modelli fisici studiati per descrivere questo tipo di contesti, e permettono di restringere il range di variabili sconosciute in gioco. O quantomeno, di evitare di generare singolarità gravitazionli che distruggano ogni cosa…

Psp2? No, Psp phone.

Dopo aver parlato di quello che sta accadendo e quello che avverrà per quanto riguarda la concorrenza tra melafonino, dispositivi windows phone7 e android, vi annuncio che il terzo potrebbe spiazzare gli altri due colossi con l’ultima trovata da parte di Sony Ericsson (secondo alcuni rumors) che avrebbe ideato e realizzato un nuovo smartphone con tanto di dashboard per caricare giochi appartenenti alla piattaforma psp.

Ebbene sì, se ne parla da anni ormai e sembra che proprio nel 2010 i desideri e le fantasie di alcuni fan siano state realizzate. Dunque non solo uno smartphone usato per effettuare o ricevere chiamate e sms e navigare in rete, ma anche per poter giocare; e non stiamo parlando dei tipici giochini da cellulare, bensì dei titoli più famosi e venduti nel campo videoludico.

Navigando un po’ in rete ho trovato alcune informazioni risalenti al 25 Novembre in cui Pierre Perron, amministratore delegato della filiale francese Sony Ericsson annuncia di aver organizzato una conferenza stampa che si terrà il 9 Dicembre, aggiungendo inoltre che il protagonista della conferenza sarà il prodotto più atteso negli ultimi dieci anni.

Che si tratti proprio del famigerato Psp Phone? Beh i presupposti ci sono, basti guardare il biglietto di invito alla conferenza sul quale sono stampate le classiche icone appartenenti alla console; da notare però che compare anche l’icona di un telefono!

Engadget (sito famoso per aver più volte pubblicato foto di prototipi di alcuni smartphone – ad esempio I-Phone4 – che poi si sono dimostrati reali) avrebbe anche pubblicato le prime foto di prototipi reali anche se con  un software definito “acerbo” (per chi volesse approfondire il link diretto è questo). Dunque il Psp phone si presenterebbe in questo modo:

  • ampio display touch (chissà che non sia multitouch);
  • quattro tasti fisici per poter tornare al menù precedente, aprire la lista dei contatti, tornare alla home e per la ricerca;
  • sul lato destro i tasti L e R più uno slot per memorie, che non saranno le pro duo della sony ma microsd destinate a ospitare i giochi acquistabili sul marketplace, proprio come la psp go, visto che non è dotato di un lettore umd
  • sul retro una fotocamera (capacità della lente attualmente sconosciuta. Si pensa a un sensore da 5 oppure 8 Megapixel) accompagnata molto probabilmente da un flash led, per scattare buone foto anche in assenza di luce.

L’estetica non sembra affatto male, anzi abbastanza compatta quanto a dimensioni.

La “parte console” è protetta dal display, che non è fisso ma è uno slide capace di nascondere i tasti direzionali, il cerchio, la ics, il quadrato, e il triangolo. Da notare il pad centrale, probabilmente multitouch, che dovrebbe simulare i pad analogici.

Passiamo adesso al “cuore ” di questo smartphone che come vi ho già anticipato monterà un sistema operativo Android (versione 2.x non 3). All’interno dei prototipi pubblicati prendono posto un processore Qualcomm MSM8655 da 1GHz, 512 MB di RAM e 1 GB di ROM; le dimensioni dello schermo (non ancora confermate) dovrebbero aggirarsi tra i 3.7 e i 4.1 pollici.

Vi rimando dunque al 9 Dicembre, quando conosceremo la verità, e ovviamente anche il prezzo di lancio.

[stextbox id=”info” caption=”Vuoi scrivere recensioni o articoli su Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo! [/stextbox]

With Lion, Back to the Mac.

20 Ottobre 2010, ore 19:00, Cupertino (Apple Campus). Parte la nuova conferenza Apple per illustrare agli utenti le ultime novità dell’azienda.

Nella prima parte della conferenza, il protagonista è il nuovo iLife 11 e le dimostrazioni delle nuove funzionalità dei software contenuti nella suite sono state molto divertenti e originali.

Vediamo insieme le novità di questa nuova release:

Partiamo da iPhoto 11, che si presenta con una nuova interfaccia a scorrimento, un layout intelligente per gli album e una “libreria” che mostra tutti i progetti dell’utente. Tra le altre caratteristiche, la modalità a schermo intero (che ci permette di lavorare sfruttando tutta l’area lavoro del monitor senza distrazioni) e la possibilità di inviare le foto via mail attraverso un form che si apre direttamente nel programma senza la necessità di aprire Mail, allegare il file e perdere altro tempo. Non manca, ovviamente, la possibilità di condividere le fotografie sui social network e leggerne i commenti, sempre all’interno di un unico programma.

iMovie11 introduce nuovi strumenti che permettono di semplificare la regolazione selettiva dei livelli audio e l’applicazione di effetti visivi e sonori evoluti con pochi semplici clic. L’interfaccia sembra DAVVERO user-friendly. Altra innovazione che ci ha colpito è stata la funzione “cercapersone”, in grado di analizzare i video e di rilevare le porzioni contenenti i volti. Ha fatto molto parlare di sé anche la nuova funziona per costruire i trailer dei nostri filmati: circa una decina di generi per trasformare le riprese video in trailer cinematografici completi di titoli, grafica, colonna sonora in pochissimi semplici passaggi, che restituiscono risultati decisamente affascinanti.

Garage Band11 porta con sé due nuove caratteristiche per editare i tempi delle registrazioni. Flex Time consente di spostare, allungare o abbreviare le tracce cliccando sulla porzione audio interessata. Groove Matching permette di selezionare ogni singola traccia e farla suonare allo stesso tempo delle altre in caso di piccoli errori. Da segnalare, inoltre, l’aggiunta di  nuovi amplificatori per chitarra, nuovi effetti stompbox, nuove lezioni livello principiante per piano e chitarra e la nuova funzione “Come ho suonato?”, che ci permette sia di controllare dove abbiamo sbagliato sia di visionare un grafico di tutte le nostre performance e vederne i miglioramenti.

Viene presentata anche una beta version per il momento di Facetime per mac, in modo da poter contattare anche utenti possessori di i-Phone e i-Pad; nessuna novita rispetto alla versione per i-Phone. (l’ho testata ieri da Mac a iPhone 4, e funziona già decisamente bene ndGriso)

Passiamo adesso alla seconda parte della conferenza ed al suo titolo…perché Back to the Mac?

App Store, Facetime e Full Screen Applications non sono state le uniche novità di questa conferenza.

Dalla prossima estate compariranno anche su qualsiasi iMac o Macbook grazie ad una nuova versione dell’OS X (10.7) chiamata dai produttori Lion.

Le caratteristiche salienti di Lion:

App Store: interfaccia un po’diversa da quella per i dispositivi mobile, la piattaforma che ha fatto il successo dei vari iPhone, iPad, iPod touch sbarca anche sui sistemi domestici, facilitando la distribuzione del software agli utenti (e chissà se qualche applicazione mobile non passerà anche sui desktop); App Store per Mac sarà reso disponibile entro 90 giorni, e dovrebbe già funzionare su Leopard e Snow Leopard.

Launchpad: una nuova interfaccia che va a braccetto con la modalità full screen, permette di organizzare icone e cartelle molto comodamente come se si stesse usando un iOS4; quindi divisione per “argomenti”, la visuale a griglia a cui siamo stati abituati sui dispositivi mobile, e una praticità generale di cui si sentiva il bisogno.

Mission Control: l’insieme di Exposè, Dashboard e Spaces in un’unica interfaccia Full Screen che al momento del lancio ci mostra tutte le applicazioni che abbiamo attive, ponendo in alto quelle full screen  e in basso tutte le applicazioni in finestre, organizzandole ovviamente per gruppi, ancora una volta la comodità a portata di “dita”.

Dovrebbero arrivare anche nuove feature che abbiamo già visto sui dispositivi Mobile di Apple: in particolare uno scorrimento totalmente inerziale delle pagine web, e il sempre troppo desiderato pinch-to-zoom (sfruttando Magic Mouse e Magi Trackpad).

Terza ed ultima parte della conferenza, il nuovo Macbook Air.

Si presenta in due versioni da 11.6 e 13.3 pollici con processori Intel core 2 duo da 1.4Ghz per la prima e 1.86Ghz per la seconda, entrambi possiedono grafica nVidia Ge-Force 320m, 2GB diRAM(espandibile fino a 4GB) e altoparlanti stereo. Apple opta in questo caso per memorie flash destinate alla memorizzazione dei dati che partono da 64Gb fino ad arrivare a 256Gb di capacità. Il primo pesa poco più di 1Kg il secondo 1.4Kg, full connectivity per questo dispositivo ed una super batteria che arriva fino a 7 ore in wireless e fino a 30 giorni in standby a partire da 999$.

Vi rimando comunque al keynote sul sito Apple: la conferenza dura 90 minuti ma è sempre divertente e interessante seguire le presentazioni Apple.

Premio Nobel: And The Winner Is…

Anche quest’anno, puntuali come al solito, sono stati annunciati i vincitori dei premi Nobel. Per quanto molte volte il Nobel sia stato considerato un premio “politico” – a causa di alcune scelte fatte, talvolta discutibili – non di meno rappresenta uno dei traguardi ideali nella vita di uno scienziato. Non tanto per il premio in sé, quanto per la visibilità che se ne trae. È innegabile che, quantomeno in ambito scientifico, il Nobel sia il premio che gode della maggiore popolarità. Quanti di voi hanno mai sentito parlare di medaglia Fields o del premio Max Born? Il Nobel rappresenta un’occasione per stimolare la curiosità dell’uomo della strada riguardo ai traguardi della scienza moderna, in un’epoca che deve sicuramente tanto al progresso tecnologico, ma che poco si sofferma a parlare di scienza e di cultura scientifica in generale. In attesa che LHC inizi a sfornare i suoi bei premi negli anni a venire (e fidatevi, qualunque cosa salti fuori da quegli esperimenti sarà degno di nota), anche quest’anno il premio è andato a una ricerca riguardante la fisica dello stato solido, con una strizzatina d’occhio alle nanotecnologie. Signori, ecco a voi il grafene…

NIDI D’APE E ATOMI IBRIDIZZATI

Molti degli elementi della tavola periodica sono presenti in natura in quelle che prendono il nome di forme allotropiche. Le proprietà di un dato materiale (sia meccaniche, come la resistenza all’abrasione, sia quelle fisiche, come la conducibilità elettrica) infatti, non dipendono unicamente dalle proprietà dei singoli atomi che lo compongono, ma anche da come questi atomi si organizzano in una struttura più o meno ordinata. Ecco quindi che il carbonio amorfo presenta qualità meccaniche e ottiche che sono l’esatto opposto del diamante, anch’esso formato da carbonio. La differenza risiede in come gli atomi si legano tra loro: nel carbonio amorfo non c’è una struttura di base, gli atomi sono legati tra loro da legami più o meno forti, orientati casualmente nello spazio. Intuitivamente capite che una struttura di questo tipo non può garantire grandi doti di resistenza agli stress meccanici (punto di forza del suo fratello in fibra), o qualità fisiche degne di nota. Il diamante invece ha una struttura interna perfettamente tetragonale, che garantisce una rigidità senza pari e che lo rende il materiale più duro esistente. Tuttavia la forma allotropica del carbonio, con cui sono sicuro voi tutti abbiate avuto a che fare almeno una volta, la si può trovare in una qualsiasi cartoleria: sono secoli che l’uomo la usa per scrivere. Nella grafite gli atomi di carbonio si organizzano in strutture bidimensionali impilate l’una sull’altra a formare un blocco di materiale tridimensionale. Se ci fate caso infatti, la grafite ha la tendenza a sfaldarsi molto bene lungo piani ben precisi. Ciascuno di questi piani, dello spessore di un atomo, è a sua volta formato da esagoni di atomi di carbonio uniti tra loro, e prendono il nome di grafene. Il grafene è quindi il “cubetto di Lego” di base per la costruzione di tutti i materiali grafitici, nanotubi in carbonio compresi. Sebbene la sua esistenza non sia mai stato nulla di impensabile in fisica (anzi, modelli di sistemi fisici reali ma con meno dimensioni vengono spesso utilizzati nei corsi introduttivi di fisica perché più semplici), il vero problema era, fino a qualche anno fa, riuscire a isolare un monostrato di carbonio. Tutt’oggi esistono svariate tecniche più o meno costose, dalla crescita epitassiale alle riduzioni con l’idrazina. Allo stato attuale delle cose, non è nemmeno pensabile una produzione a livello industriale di questo materiale, come d’altro canto accade sempre con i materiali sperimentali. Ma le proprietà davvero uniche di questo materiale lo rendono il candidato ideale per sostituire tutti i semiconduttori utilizzati fino ad adesso, e non solo quelli.

LE PROPRIETA’

Il grafene presenta proprietà uniche, sia meccaniche che fisiche. Dal punto di vista meccanico, il grafene è uno dei materiali più forti mai testati, facendo coppia con i nanotubi in carbonio di cui abbiamo già parlato. Possibili future applicazioni in questo campo comprendono i dispositivi NEMS (Nanoelectromechanical systems) ovvero dispositivi che integrano al loro interno funzionalità meccanica ed elettrica su scala nanometrica. In particolare, l’alto rapporto tra superficie e massa rende il grafene il materiale ideale per realizzare sensori e strumenti di rilevazione ad altissima precisione. Allo stato attuale costa ancora troppo estrarre i fogli di grafene dalla normale grafite, anche se tecniche di tipo industriale sono sotto sviluppo. Se poi accoppiamo le proprietà meccaniche a quelle fisiche, le potenziali applicazioni si espandono. Elettricamente parlando, è possibile che il grafene acquisisca le caratteristiche tipiche dei metalli o dei semiconduttori a seconda della forma che gli si dà in fase di produzione. Il grafene può quindi sostituire la base sia per i circuiti integrati e gli elementi conduttori, sia il silicio nei computer del futuro: l’anno scorso proprio al Politecnico di Milano sono riusciti a costruire 4 differenti tipi di porte logiche (ovvero le componenti di base dei microprocessori) utilizzando transistor di grafene.

Alla IBM sono andati oltre, riuscendo superare le prestazioni tipiche dei circuiti basati sul silicio, toccando la stratosferica quota di 100 Ghz di velocità di elaborazione (il processore più costoso che si trova in vendita oggi raggiunge circa i 20Ghz, ndR). Questo risultato è stato raggiunto utilizzando, per la realizzazione dei circuiti, gli stessi macchinari utilizzati con i convenzionali componenti in silicio. Questo aspetto è molto importante, perché significa che nel passaggio da un materiale all’altro ci saranno meno sprechi in termini di tempo perso e di materiali da cambiare.
Le proprietà ottiche del grafene (alta trasparenza nello spettro del visibile) unitamente alle sue possibili caratteristiche elettriche, metalliche e alla resistenza meccanica, ne fanno il materiale adatto a costruire display touch screen ad alta qualità, anche flessibili. Infine, il grafene dovrebbe entrare a far parte dei futuri ultracapacitori, condensatori ad altissima capacità che dovrebbero finire per alimentare, tra le altre cose, le vetture elettriche.
Roba da poco, insomma, eh?

Windows Phone 7

Windows Phone 7

È ufficiale, l’uscita del prossimo sistema operativo Microsoft per smartphone è stata fisata per l’11 ottobre e le vendite dei primi prodotti inizieranno pochi giorni dopo quindi non prima della fine del mese. Windows Phone 7 presenta molte nuove caratteristiche. Tenendo presente che la versione finale potrebbe introdurre qualche piccola novità dell’ultima ora, ve ne descrivo un po’.

La nuova interfaccia grafica chiamata Metro, è stata completamenta riprogettata, per cui scompaiono i classici menu dando spazio ai tiles, mattonelle animate che costituiscono la home e rappresentano le applicazioni principali. I tiles possono essere spostati e personalizzati dall’utente, ad esempio per portare sulla home le applicazioni o i widget preferiti oppure organizzarli in hub.

Gli hub sono come i tiles ma racchiudono le diverse applicazioni in base al genere:

People ad esempio include GMail, Facebook, Twitter e Windows Live;

Picture contiene tutte le immagini memorizzate sullo smartphone e quelle caricate sui social network;

Games si integra con Xbox Live per giocare online con i profili amici;

Music+Video permette di sfogliare file musicali e video, oltre alle possibilità di effettuare download e streaming via Wi-Fi e 3G;

Marketplace per accedere allo store online di Microsoft;

Office, infine, racchiude le note applicazioni da ufficio(Word, Excel, PowerPoint e OneNote).

Per quanto riguarda la gestione delle email, Windows Phone 7 permette di utilizzare anche software diversi da Live Mail, tra cui Yahoo! MailGMail. Non poteva ovviamente mancare Internet Explorer che funziona abbastanza bene, con discreta velocità e buona qualità di rendering delle pagine. Stranamente, al momento attuale, non ha il supporto per Flash.

Per quanto riguarda le prime impressioni l’interfaccia è gradevole, il sistema risponde molto bene al tocco delle dita ed è rapido nell’apertura delle applicazioni. La tastiera virtuale è paragonabile a quella dell’Iphone ma per questo aspetteremo le prime recensioni dei prodotti.

In un sistema Microsoft diciamo che non ci saremmo mai aspettati la mancanza di funzioni di copia-incolla e di multi-tasking… Applicazioni come Internet Explorer possono essere messe in background (in sospensione quindi), ma nel caso in cui il sistema necessiti di ulteriori risorse per l’esecuzione di un processo l’applicazione verrebbe chiusa senza preavviso; si spera quindi in un update del sistema.

Altra funzione mancante è il tethering, ovvero la tecnologia per utilizzare il cellulare come modem tramite connessione Bluetooth o WiFi. È presente comunque una roadmap di update basata proprio sui consigli degli utenti, quindi molto probabilmente tutte queste mancanze non ci saranno più.

Con il nuovo Windows Phone 7 arriva, ovviamente, il progetto anti Ipad da parte di Microsoft, che lancerà due nuovi tablet. Peccato però che l’uscita di entrambi sia prevista per il prossimo anno.

Il primo è prodotto da Asus, e si tratta di un Eee Pad, molto simile nelle forme al già citato iPad, con un processore Intel Culv e la durata della batteria che arriva a 10 ore. L’Eee Pad comprenderà anche una webcam integrata e almeno una porta USB.

Il secondo dispositivo invece, verrà prodotto da MSI: si tratterebbe di un tablet con un processore Intel Atom Z530 da 1.66GHz, 2 GB di RAM, una SSD da 32 GB che avvia Windows 7 Home Premium.

I requisiti per competere con Ipad e i tablet Android ci sono tutti, peccato però per le lunghe tempistiche annunciate che potrebbero spazientire gli utenti fedeli a Windows. Se entrambi i progetti venissero ultimati massimo entro novembre possiamo anche prepararci a un inverno molto caldo per quanto riguarda il mercato di questi ultimi “oggetti del desiderio”.

Ancora una volta ci chiediamo: chi la spunterà?

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox]

Inquinamento e Web Marketing: è l'ora di accorgersene

[stextbox id=”custom” big=”true”]Torna a scrivere per Camminando Scalzi Paolo Ratto, specialista di contenuti online e autore di articoli relativi ad internet e web marketing. Qui il link al suo interessantissimo blog: http://paoloratto.blogspot.com[/stextbox]

Quando si parla di Internet si ha comunemente una concezione errata di quelle che sono le conseguenze per l’ambiente. Il Web e tutto il mondo dell’ ICT (information comunication technology) infatti viene spesso immaginato come un universo “ecologico”. Non illudiamoci che sia così.

Negli ultimi tempi si è scatenata una querelle mediatica tra Facebook e Greenpeace che ha portato alla ribalta proprio il tema dell’inquinamento causato dal Web. La celebre associazione, che da sempre difende l’ecologia planetaria, ha accusato il gigante blu di inquinare a dismisura a causa del suo nuovo data center in Oregon, alimentato a carbone. Greenpeace ha avviato una serie di iniziative tra cui una richiesta di adottare una politica ambientale più rispettosa, controfirmata da 500.000 utenti di Facebook, una lettera scritta dal direttore esecutivo Naidoo indirizzata direttamente a Facebook e un video che ha rapidamente fatto il giro della Rete.

Se la diffusione delle email e la progressiva sostituzione di archivi cartacei con archivi digitali hanno sicuramente contrbuito a diminuire l’utilizzo della carta, dobbiamo domandarci quali sono le conseguenze ambientali che il massiccio utilizzo della Rete comporti.

Siamo d’innanzi ad un nuovo tipo di inquinamento: una scia di dati (spesso inutili) che lasciamo alle nostre spalle, alimentata da non poca energia elettrica. Ogni volta che visitiamo un sito, mandiamo una e-mail o facciamo qualsiasi altra cosa in rete, mettiamo in moto dischi, testine, impulsi che viaggiano da una parte all’altra del globo e che vengono inviati, smistati e ricevuti.
Quindi nonostante i computer non utilizzino fonti di energia altamente inquinanti come per esempio la benzina, non possiamo parlare di tecnologie a leggero impatto ambientale.
Addirittura alcune ricerche dell’agenzia di protezione ambientale americana, confermate da uno studio di Gartner rivelano che il settore ICT contribuisce all’inquinamento mondiale a pari livello del settore aereo, ciò significa il 2% di tutto l’inquinamento mondiale prodotto. In particolar modo il settore informatico sarebbe responsabile del 2% di tutta l’anidride carbonica immessa nell’atmosfera.

Il forte impatto ambientale è dovuto principlamente a 2 fattori:

  • il consumo energetico;
  • la difficoltà nello smaltire e riciclare la vecchia tecnologia.

Ma scendendo nel particolare, in che modo il Web Marketing può considerarsi parzialmente responsabile dell’inquinamento?

Il Web Marketing rappresenta tutta quella serie di attività che sfruttano il canale online per studiare il mercato e sviluppare rapporti commerciali tramite il Web. Il Web Marketing si basa sull’utilizzo di strumenti quali l’email, i motori di ricerca, i social network e soprattuto sulla connessione quotidiana al WWW, vero ed unico palcoscenico del business online.

Andiamo ad analizzare ognunga di queste attività in relazione all’inquinamento prodotto, coadiuvati da ricerche in materi.
L’email è stata spesso considerata, anche giustamente, come uno strumento ecologico. D’altronde grazie alla mail si è ridotto il numero di carta utilizzata dagli uffici nelle comunicazioni internet ed esterne. Una piccola ricerca di EMC2 (leader dello stoccaggio dati su Storage Area Network) ha però evidenziato dati preoccupanti: una email di poche righe con allegato un file di da 1 megabyte, inviata a 4 persone, riesce ad occupare uno spazio di 50 megabyte nella rete. Ciò è dovuto essenzialmente ad operazioni “meccaniche” quali le copie conservate da pc d’invio, di destinazione, e dal server e dai vari file di log prodotti dai server stessi durante il cammino dell’email. Ora rapportate questo piccolo numero ai 245 miliardi di email inviate quotidianamente al mondo e capirete l’enorme quantità di dati che per esistere devono essere alimentati da energia elettrica.

Secondo diversi studi recenti anche il comparto della “Search”, ossia l’utilizzo dei motori di ricerca (principalmente Google) per trovare informazioni, dati e quant’altro (essenziale per il Web Marketing) è fonte di inquinamento. Un ricercatore di fisica della Harvard University, Alex Wissner-Gross, ha spiegato che ogni query lanciata tramite Google da un qualsiasi computer fisso genera 7 grammi di CO2. Per offrire un esempio pratico, due ricerche lanciate sul motore di ricerca richiederebbero lo stesso consumo di energia che serve per riscaldare una tazza di the.

La search (ma non solo!) si basa sul Cloud Computing, ossia l’ insieme di tecnologie informatiche che permettono l’utilizzo di risorse hardware (storage, CPU) o software distribuite in remoto. Si pensi a tutti i dati presenti nei motori di ricerca e nei social network, a tutti i video che guardiamo, a tutta la musica e i film che scarichiamo: tutto ciò fa parte della “nuvola”. Questo tipo di tecnologia non è esente da problemi con l’inquinamento, anzi in questo momento è respnsabile dei maggiori danni ambientali.

Un rapporto di GreenPeace del 2010 avverte che la crescita del cloud computing sarà accompagnata da un forte aumento delle emissioni di gas ad effetto serra, altamente nocivi per l’ambiente. D’altronde tutti i grandi colossi del mercato in questione (Facebook, Google, Yahoo e Microsoft) tenuti sotto pressione dall’opinione pubblica stanno cercando (almeno apparentemente) dei compromessi tra la nascita di nuovi centri di stoccaggio e server (i famigerati data center), alimentati da centrali elettriche spesso anche a carbone, e l’utilizzo di fonti di energia rinnovabili coadiuvati da piani di educazione ambientale del personale e dell’utenza.

Insomma sembra proprio che non si possa più ignorare l’impatto ambientale dell’industria dell’ICT ed in particolare del Web. Per quanto riguarda le soluzioni, il dibattito è quanto mai avviato. Voi cosa ne pensate?

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox]

Diaspora, la privacy la decidi TU!

Accedendo al vostro account di Facebook dal dicembre 2009 in poi, avrete tutti notato delle variazioni alle impostazioni già esistenti nella vostra privacy.

Sul web si scatenò l’inferno, se ne parlò tantissimo, e milioni di utenti furiosi a lungo hanno cercato l’alternativa a Facebook parlando di “diaspora”, secondo la definizione di quella greca (la migrazione di un intero popolo  costretto ad abbandonare la propria terra natale per disperdersi in diverse parti del mondo).

Ci furono tante proteste e iniziative per protestare contro questo “colpo di testa” di Zuckerberg (chi di voi non ha mai sentito parlare del “Quit Facebook Day”?); tra queste possiamo trovare proprio un progetto chiamato Diaspora.

Quattro studenti della New York University (Daniel Grippi, Maxwell Salzberg, Raphael Sofaer e Ilya Zhitomirskiy) iniziarono a mettere su, un po’ per gioco, un nuovo progetto di social network che avrebbe avuto – per quanto riguarda funzioni di microblogging, condivisione video e upload di file multimediali – un’interfaccia davvero “user friendly”; per quanto riguarda la privacy invece, regole FISSE e decise DAGLI UTENTI!

I nostri quattro eroi si proposero di portare seriamente avanti questo progetto soltanto nel caso in cui avessero raggiunto dei finanziamenti pari a diecimila dollari, dopo l’iscrizione del progetto a Kickstarter (un sito che permette di pubblicizzare e finanziare idee e progetti grazie alle donazioni degli utenti). A gran sorpresa, prima della fine dell’estate i finanziamenti del progetto raggiunsero una somma pari a duecentomila dollari e, tra i nomi di più di seimila contribuenti, comparve anche quello dello stesso Zuckerberg (fondatore del colosso sociale).

Fin dai primi rumors questo nuovo progetto ha attirato l’attenzione di parecchie migliaia di utenti, soprattutto per il fatto che il servizio sarà open-source, ovvero permetterà a tutti di accedere al codice-sorgente e di contribuire al miglioramento del progetto. Il nuovo anti-facebook dunque è pronto per la partenza:  il codice-base è affinato e l’interfaccia utente migliora di giorno in giorno. Il rilascio del codice è avvenuto il 15 settembre; collegandosi al sito del progetto http://www.joindiaspora.com/ possiamo ammirare un primo messaggio, secondo me assolutamente d’impatto: “The privacy aware, personally controlled, do-it-all, open source social network.”, e più in basso: “DIASPORA IS REAL!”.

Adesso la domanda  che tutti si stanno facendo è… Ce la farà?

Le prospettive sono assolutamente positive: Diaspora è sì un social network, ma è anche open-source… Diciamo un eterno “lavori in corso” visto che i programmatori potranno contribuire a disegnarne versioni sempre più stabili e funzionali. Inoltre due dei suoi quattro giovani inventori, Raphael Sofaer e Ilya Zhitomirskiy, hanno concluso il loro corso di studi universitari e Diaspora è senz’altro una promettente, e chissà, fruttuosa attività alla quale potranno dedicarsi a tempo pieno.

Sperando sia finalmente arrivato l’anti-facebook che ci permetterà di dire addio per sempre alla “prepotenza” di Zuckerberg… In bocca al lupo ragazzi!

http://vimeo.com/moogaloop.swf?clip_id=11099292&server=vimeo.com&show_title=1&show_byline=1&show_portrait=1&color=00ADEF&fullscreen=1&autoplay=0&loop=0

Diaspora: Personally Controlled, Do-It-All, Distributed Open-Source Social Network from daniel grippi on Vimeo.

Google Instant e la ricerca istantanea

[stextbox id=”custom” caption=”Un nuovo redattore per Camminando Scalzi” big=”true”]Camminando Scalzi è lieta di dare il benvenuto al nostro nuovo redattore, Marco Moccia. Marco si occuperà dell’area informatica, parlandoci di settimana in settimana dei più attuali e disparati argomenti riguardanti il web, l’hardware, il software, i social network e chi più ne ha più ne metta. In bocca al lupo a Marco, e buona lettura a voi![/stextbox]
Se vi siete mai chiesti perché negli ultimi giorni Google, il noto motore di ricerca cambiasse un logo al giorno senza che ci fosse alcun evento in particolare la risposta si chiama Instant Search.
Secondo la conferenza di mercoledì, dove è stato presentato ufficialmente, Instant Search è in grado di “prevedere” quello che ogni singolo utente vuole cercare, un sistema di “search-before-you-type” fornisce risultati della ricerca già mentre si scrive la prima parola e “prevede” anche le successive, in modo da risparmiare secondi preziosi nella ricerca… Un vero e proprio oracolo, insomma.
È da dire che l’idea è stata concepita nell’ormai lontano 2005, quando il mondo intero utilizzava Yahoo per le sue ricerche, mail e quant’altro.
Se ve lo state chiedendo la risposta è sì, proprio Yahoo aveva nel 2005 sviluppato alcuni “Ajax Search Tools” e tra questi, il progetto più importante era “Live Search” la quale funzionalità avrebbe dovuto essere proprio uguale a quella dell’attuale Google Instant.
Il progetto di Yahoo, sfortunatamente, è iniziato quando non c’erano ancora i mezzi adatti, in altri tempi dove la pubblicità online era pari a zero in confronto a quella attuale, motivo per il quale “Yahoo Instant” non trovò posto di integrazione nel normale box di ricerca, bensì in una barra laterale di All The Web che veniva chiamata “Yahoo Instant”, che però non ebbe un gran successo e dopo un po’ fu eliminata.
Oggi Google, approfittando dell’attuale e incessante utilizzo del web, si prende l’esclusiva “rilanciando” questo progetto ormai finito nel dimenticatoio.
Parlando dei vantaggi di questo “remake” del progetto “Live Search”, sotto l’aspetto dei numeri e secondo sondaggi interni di Google, l’utente utilizzando il nuovo metodo di ricerca può risparmiare dai 2 ai 5 secondi(secondo molti, quasi tutti, un cambiamento poco rilevante) ma se tutto il mondo usasse google instant per effettuare le proprie ricerche si arriverebbe a risparmiare fino a 11 ore circa per secondo e facendo un paio di calcoli, forse non è proprio un cambiamento irrilevante, visto che in 24 ore si risparmierebbero all’incirca 111 anni.
Da non sottovalutare però la parte business. Ebbene sì, all’utente viene anche spontaneo giocare un po’ con i primi suggerimenti forniti da questo nuovo sistema e quindi diventa ancora più importante guadagnarsi i primi posti nella ricerca; ottima occasione, quindi, per le agenzie di Search Engine Optimization dei siti che troveranno sicuramente nuovi clienti e nuovi affari!
È noto che anche YouTube è proprietà di Google, dal 10 ottobre 2006, ed ecco infatti che si prospetta l’idea di applicare la funzionalità “instant” anche a YouTube!
Google instant all'operaUn giovane studente della Stanford University (Feross Aboukhadijeh, 19 anni), per una scommessa fatta con il proprio compagno di stanza (Jake Becker) mette a punto un motore di ricerca in tempo reale anche per YouTube.
Il “duello”, se così lo si può definire, lo avrebbe vinto chi nel minor tempo possibile avesse sviluppato un motore snello e veloce. Al primo posto arriva Feross, impiegando un’ora. Jake ne impiega invece tre, più altre due per snellire la grafica e velocizzarlo.
Il vincitore ha visto comparire un tweet sul monitor del suo pc che diceva: “vuoi un lavoro?”. Ad inviarlo, Chad Hurley, uno dei fondatori del tubo, subito dopo aver constatato la “potenza” di questa nuova applicazione dedicata proprio al grande portale di condivisione video.
Feross incontrerà lunedì Chad Hurley per discutere della proposta di lavoro, ma non solo: in contemporanea girano voci di una sua collaborazione con Facebook per lo sviluppo di alcune applicazioni Top Secret!
Vi lascio con lo spot dimostrativo di Google Instant, con protagonista niente meno che Bob Dylan!
A presto!
[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox]

Il gatto di Schrodinger è vivo e cerca di conquistare il mondo

Ritorna anche questa settimana la scienza su Camminando Scalzi! Questa volta voglio provare a spiegare a parole una delle branche più mistiche e imperscrutabili della fisica moderna: la meccanica quantistica! Non dovrete preoccuparvi tuttavia di dover decifrare astruse formule matematiche, quel che vi chiedo di avere è soltanto un po’ di apertura mentale, quel tanto che vi basta per andare contro le vostre intuizioni riguardo il funzionamento del nostro universo. Pronti?

VOI SIETE PROBABILMENTE QUI

La meccanica quantistica è uno dei più rappresentativi prodotti dei “30 anni che scossero la fisica”, quel periodo di tempo a inizio ‘900 che vide una fortissima progressione nella nostra comprensione delle leggi dell’universo. Sono gli anni della teoria della relatività di Einstein, degli esperimenti di Enrico Fermi sull’energia nucleare, e della meccanica ondulatoria di Schrodinger ed Heisenberg. È un epoca in cui la concezione classica che fino a quel momento si aveva inizia a mostrare forti incompatibilità con i primi esperimenti riguardo la natura subatomica della materia. Se fino ad allora il concetto di particella come corpo puntiforme, con posizione e velocità determinate e distinguibile da tutte le sue sorelle che la circondano, era valido per una trattazione macroscopica (ovvero in cui non ci si interessa delle singole entità ma di un altissimo numero di esse), nel momento di andare a indagare quel che succede davvero a livello microscopico alle singole “palline blu e rosse” le cose cambiano. È infatti noto che per qualsiasi misura di tipo sperimentale si effettui non si possa prescindere da un certo grado di errore, dovuto alla precisione dello strumento e alla perizia o meno dello sperimentatore. Dato che il progresso nella tecnologia ha permesso di ottenere strumenti sempre più precisi, all’aumento della complessità degli esperimenti ha fatto da contraltare la presenza di macchinari sempre migliori e più perfezionati. Questo perlomeno finché si resta nel campo del macroscopico. A livello atomico e subatomico le grandezze in gioco sono talmente piccole che ottenere una misurazione precisa, ad esempio, della posizione e della velocità di una particella è impossibile. Il principio di indeterminazione di Heisenberg dice proprio questo: non è possibile misurare con un grado di precisione arbitrario contemporaneamente la posizione e il momento di una particella: se ne misurate uno, perdete inevitabilmente informazioni sull’altro. Se questa cosa può sembrarvi un limite, vi basti sapere che tuttavia è il punto di partenza di moltissimi procedimenti e teorie in campo fisico: esso stabilisce di fatto una base per quanto riguarda la precisione massima che siamo in grado di raggiungere, e ci dà la possibilità di stabilire un range di valori da cui partire per sviluppare una teoria.

ONDA SU ONDA

Risulta chiaro dal principio di indeterminazione che le grandezze che caratterizzano una particella (la sua posizione e la sua velocità, dalle quali poi si possono ricavare tutta una serie di parametri come energia, momento angolare, etc.) sono inevitabilmente legate. Questo principio è quindi come una specie di nebbia, che ci fa intravvedere il profilo delle sagome all’orizzonte ma con poca chiarezza. Di conseguenza il massimo che noi possiamo dire è che una particella ha una certa probabilità di trovarsi in una data frazione dello spazio, o una certa probabilità di avere quella velocità. Da qua in avanti, bene o male quasi tutte le normali convenzioni fino ad ora assunte vengono a crollare. Le particelle diventano “onde di probabilità”… Strane entità che si estendono dall’infinito, all’infinito: in pratica è come se l’onda fosse presente in tutto lo spazio fisico (e in effetti è proprio così, come provano diversi esperimenti), addensandosi nei punti dove è massima la probabilità della presenza della particella. È piuttosto significativo che la teoria che stabilisce definitivamente la natura dualistica della luce (classicamente trattata come un onda, ma quantizzata appunto nella meccanica quantistica) operi allo stesso modo con la materia in senso inverso. La natura è piena di simmetrie, e alla fin fine questa è un’ulteriore prova del fatto che energia e materia sono due differenti espressioni dello stesso oggetto. La cosa veramente innovativa della meccanica quantistica però non sta tanto nella concezione di nuovi esseri matematici: tutto sommato, fornisce gli stessi risultati della meccanica classica quando si tratta un gran numero di corpi. A cambiare in realtà è la concezione che si ha dell’esperimento: non si tratta più il suo ambiente come una cosa separata da quello in cui opera lo sperimentatore: i due ambienti vengono a coincidere. Di conseguenza ogni intervento dello sperimentatore (misura compresa) finisce per modificare il sistema in esame. Per cui noi, nell’atto della misura, non stiamo in realtà registrando passivamente lo stato di un sistema, ma stiamo interagendo con esso, obbligandolo a fornirci un risultato.

GATTI RADIOATTIVI

Per illustrare meglio questa logica, Erwin Schrodinger si inventò il famoso esperimento mentale del gatto nella scatola. Supponete di avere una scatola, all’interno della quale ponete un gatto, un pezzetto di materiale radioattivo con annesso contatore geiger, e un diffusore di veleno in grado di uccidere il gatto, attivato dal contatore nel caso in cui il materiale radioattivo subisca un decadimento. Per quanto la cosa possa sembrarvi un po’ crudele, vi assicuro che nessun gatto è stato maltrattato o ucciso durante l’ideazione della teoria. Supponiamo che il materiale da noi introdotto nella scatola abbia la stessa probabilità di decadere o di non farlo, in un determinato lasso di tempo. Definiamo i due possibili stati del sistema come (gatto morto) e (gatto vivo). A questo punto chiudiamo la scatola e aspettiamo. Se doveste chiedere a un fisico classico in che stato è il sistema senza aprire la scatola, vi direbbe che non lo può sapere, ma che sicuramente avremmo alternativamente (gatto morto) OPPURE (gatto vivo). Un fisico moderno vi risponderà invece che lo stato del sistema è semplicemente 1/√2 (gatto vivo) + 1/√2 (gatto morto). Le radici rappresentano la radice quadrata della probabilità di ciascuno stato, la cui somma ovviamente non può essere superiore a 1, e vengono detti fattori di normalizzazione. Solo aprendo la scatola (ovvero effettuando la misura) noi possiamo definire uno stato univoco per il sistema, ma finché la scatola rimane chiusa, il gatto è – quantisticamente parlando – sia vivo che morto, contemporaneamente!

MA… FUNZIONA ?

Sebbene quanto detto finora non possa esser considerata una presentazione completamente esaustiva dei concetti base della meccanica quantistica (qualcosa che va ben oltre le mie intenzioni e soprattutto le mie capacità), le implicazioni di queste poche nozioni preliminari sono enormi. Se infatti la materia è composta da particelle-onde, ci si aspetterebbe di osservare i tipici fenomeni caratteristici delle onde elettromagnetiche, come diffrazione e rifrazione. E infatti, la diffrazione dei neutroni è solo una delle moderne tecniche che sfruttano la natura dualistica della materia per indagare la struttura più intima di un solido, ad esempio. L’elettronica che ci circonda, dal telefonino al computer al forno a microonde, incorpora al proprio interno dei transistors a effetto di campo (i famosi FET), il cui funzionamento è basato su un particolare fenomeno spiegabile solo tramite le teorie di Schroddy e Heisy. E se vi dicessi che buttarsi contro un muro non conduce con certezza al rompersi qualche osso, ma avreste una probabilità non nulla di attraversarlo senza colpo ferire? Come un’onda di luce che incide su un’interfaccia (ad esempio quando passa da aria ad acqua) viene in parte trasmessa e in parte riflessa, alla stessa maniera una particella che incida su una barriera di potenziale la cui forza sia maggiore dell’energia del corpuscolo, non è detto che venga sicuramente riflessa, dato che proprio in virtù del suo essere anche onda avrà una probabilità di venire trasmessa. Certo, questa probabilità è tanto più alta quanto l’energia della particella si avvicina a quella della barriera, ma diversi esperimenti e il fatto che voi stiate usando un computer per leggere queste parole dimostrano che il concetto funziona, dato che anche il “tunnelling” gioca un ruolo importantissimo nella tecnologia attuale. Ora però non cercate di attraversare il gran canyon per effetto tunnel, potreste scoprire che le vostre probabilità di essere trasmessi (e di conseguenza, quelle di sopravvivere) sono davvero esigue..

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox].