Il gatto di Schrodinger è vivo e cerca di conquistare il mondo

Ritorna anche questa settimana la scienza su Camminando Scalzi! Questa volta voglio provare a spiegare a parole una delle branche più mistiche e imperscrutabili della fisica moderna: la meccanica quantistica! Non dovrete preoccuparvi tuttavia di dover decifrare astruse formule matematiche, quel che vi chiedo di avere è soltanto un po’ di apertura mentale, quel tanto che vi basta per andare contro le vostre intuizioni riguardo il funzionamento del nostro universo. Pronti?

VOI SIETE PROBABILMENTE QUI

La meccanica quantistica è uno dei più rappresentativi prodotti dei “30 anni che scossero la fisica”, quel periodo di tempo a inizio ‘900 che vide una fortissima progressione nella nostra comprensione delle leggi dell’universo. Sono gli anni della teoria della relatività di Einstein, degli esperimenti di Enrico Fermi sull’energia nucleare, e della meccanica ondulatoria di Schrodinger ed Heisenberg. È un epoca in cui la concezione classica che fino a quel momento si aveva inizia a mostrare forti incompatibilità con i primi esperimenti riguardo la natura subatomica della materia. Se fino ad allora il concetto di particella come corpo puntiforme, con posizione e velocità determinate e distinguibile da tutte le sue sorelle che la circondano, era valido per una trattazione macroscopica (ovvero in cui non ci si interessa delle singole entità ma di un altissimo numero di esse), nel momento di andare a indagare quel che succede davvero a livello microscopico alle singole “palline blu e rosse” le cose cambiano. È infatti noto che per qualsiasi misura di tipo sperimentale si effettui non si possa prescindere da un certo grado di errore, dovuto alla precisione dello strumento e alla perizia o meno dello sperimentatore. Dato che il progresso nella tecnologia ha permesso di ottenere strumenti sempre più precisi, all’aumento della complessità degli esperimenti ha fatto da contraltare la presenza di macchinari sempre migliori e più perfezionati. Questo perlomeno finché si resta nel campo del macroscopico. A livello atomico e subatomico le grandezze in gioco sono talmente piccole che ottenere una misurazione precisa, ad esempio, della posizione e della velocità di una particella è impossibile. Il principio di indeterminazione di Heisenberg dice proprio questo: non è possibile misurare con un grado di precisione arbitrario contemporaneamente la posizione e il momento di una particella: se ne misurate uno, perdete inevitabilmente informazioni sull’altro. Se questa cosa può sembrarvi un limite, vi basti sapere che tuttavia è il punto di partenza di moltissimi procedimenti e teorie in campo fisico: esso stabilisce di fatto una base per quanto riguarda la precisione massima che siamo in grado di raggiungere, e ci dà la possibilità di stabilire un range di valori da cui partire per sviluppare una teoria.

ONDA SU ONDA

Risulta chiaro dal principio di indeterminazione che le grandezze che caratterizzano una particella (la sua posizione e la sua velocità, dalle quali poi si possono ricavare tutta una serie di parametri come energia, momento angolare, etc.) sono inevitabilmente legate. Questo principio è quindi come una specie di nebbia, che ci fa intravvedere il profilo delle sagome all’orizzonte ma con poca chiarezza. Di conseguenza il massimo che noi possiamo dire è che una particella ha una certa probabilità di trovarsi in una data frazione dello spazio, o una certa probabilità di avere quella velocità. Da qua in avanti, bene o male quasi tutte le normali convenzioni fino ad ora assunte vengono a crollare. Le particelle diventano “onde di probabilità”… Strane entità che si estendono dall’infinito, all’infinito: in pratica è come se l’onda fosse presente in tutto lo spazio fisico (e in effetti è proprio così, come provano diversi esperimenti), addensandosi nei punti dove è massima la probabilità della presenza della particella. È piuttosto significativo che la teoria che stabilisce definitivamente la natura dualistica della luce (classicamente trattata come un onda, ma quantizzata appunto nella meccanica quantistica) operi allo stesso modo con la materia in senso inverso. La natura è piena di simmetrie, e alla fin fine questa è un’ulteriore prova del fatto che energia e materia sono due differenti espressioni dello stesso oggetto. La cosa veramente innovativa della meccanica quantistica però non sta tanto nella concezione di nuovi esseri matematici: tutto sommato, fornisce gli stessi risultati della meccanica classica quando si tratta un gran numero di corpi. A cambiare in realtà è la concezione che si ha dell’esperimento: non si tratta più il suo ambiente come una cosa separata da quello in cui opera lo sperimentatore: i due ambienti vengono a coincidere. Di conseguenza ogni intervento dello sperimentatore (misura compresa) finisce per modificare il sistema in esame. Per cui noi, nell’atto della misura, non stiamo in realtà registrando passivamente lo stato di un sistema, ma stiamo interagendo con esso, obbligandolo a fornirci un risultato.

GATTI RADIOATTIVI

Per illustrare meglio questa logica, Erwin Schrodinger si inventò il famoso esperimento mentale del gatto nella scatola. Supponete di avere una scatola, all’interno della quale ponete un gatto, un pezzetto di materiale radioattivo con annesso contatore geiger, e un diffusore di veleno in grado di uccidere il gatto, attivato dal contatore nel caso in cui il materiale radioattivo subisca un decadimento. Per quanto la cosa possa sembrarvi un po’ crudele, vi assicuro che nessun gatto è stato maltrattato o ucciso durante l’ideazione della teoria. Supponiamo che il materiale da noi introdotto nella scatola abbia la stessa probabilità di decadere o di non farlo, in un determinato lasso di tempo. Definiamo i due possibili stati del sistema come (gatto morto) e (gatto vivo). A questo punto chiudiamo la scatola e aspettiamo. Se doveste chiedere a un fisico classico in che stato è il sistema senza aprire la scatola, vi direbbe che non lo può sapere, ma che sicuramente avremmo alternativamente (gatto morto) OPPURE (gatto vivo). Un fisico moderno vi risponderà invece che lo stato del sistema è semplicemente 1/√2 (gatto vivo) + 1/√2 (gatto morto). Le radici rappresentano la radice quadrata della probabilità di ciascuno stato, la cui somma ovviamente non può essere superiore a 1, e vengono detti fattori di normalizzazione. Solo aprendo la scatola (ovvero effettuando la misura) noi possiamo definire uno stato univoco per il sistema, ma finché la scatola rimane chiusa, il gatto è – quantisticamente parlando – sia vivo che morto, contemporaneamente!

MA… FUNZIONA ?

Sebbene quanto detto finora non possa esser considerata una presentazione completamente esaustiva dei concetti base della meccanica quantistica (qualcosa che va ben oltre le mie intenzioni e soprattutto le mie capacità), le implicazioni di queste poche nozioni preliminari sono enormi. Se infatti la materia è composta da particelle-onde, ci si aspetterebbe di osservare i tipici fenomeni caratteristici delle onde elettromagnetiche, come diffrazione e rifrazione. E infatti, la diffrazione dei neutroni è solo una delle moderne tecniche che sfruttano la natura dualistica della materia per indagare la struttura più intima di un solido, ad esempio. L’elettronica che ci circonda, dal telefonino al computer al forno a microonde, incorpora al proprio interno dei transistors a effetto di campo (i famosi FET), il cui funzionamento è basato su un particolare fenomeno spiegabile solo tramite le teorie di Schroddy e Heisy. E se vi dicessi che buttarsi contro un muro non conduce con certezza al rompersi qualche osso, ma avreste una probabilità non nulla di attraversarlo senza colpo ferire? Come un’onda di luce che incide su un’interfaccia (ad esempio quando passa da aria ad acqua) viene in parte trasmessa e in parte riflessa, alla stessa maniera una particella che incida su una barriera di potenziale la cui forza sia maggiore dell’energia del corpuscolo, non è detto che venga sicuramente riflessa, dato che proprio in virtù del suo essere anche onda avrà una probabilità di venire trasmessa. Certo, questa probabilità è tanto più alta quanto l’energia della particella si avvicina a quella della barriera, ma diversi esperimenti e il fatto che voi stiate usando un computer per leggere queste parole dimostrano che il concetto funziona, dato che anche il “tunnelling” gioca un ruolo importantissimo nella tecnologia attuale. Ora però non cercate di attraversare il gran canyon per effetto tunnel, potreste scoprire che le vostre probabilità di essere trasmessi (e di conseguenza, quelle di sopravvivere) sono davvero esigue..

[stextbox id=”info” caption=”Vuoi collaborare con Camminando Scalzi.it ?” bcolor=”4682b4″ bgcolor=”9fdaf8″ cbgcolor=”2f587a”]Collaborare con la blogzine è facile. Inviateci i vostri articoli seguendo le istruzioni che trovate qui. Siamo interessati alle vostre idee, alle vostre opinioni, alla vostra visione del mondo. Sentitevi liberi di scrivere di qualsiasi tematica vogliate: attualità, cronaca, sport, articoli ironici, spettacolo, musica… Vi aspettiamo numerosi.[/stextbox].

Le domande senza risposta della fisica moderna

Se andate dall’uomo della strada a chiedergli quale sia la sua concezione di scienziato in generale, con tutta probabilità egli vi risponderà che uno scienziato è colui che cerca e dà risposte. Tuttavia lo scopo della scienza non è tanto quello di dare delle risposte, quanto quello di porsi le domande giuste. Ogni risposta, per quanto dettagliata possa essere, sarà sempre incompleta di fronte a quella che è la natura delle cose. Ogni risposta inevitabilmente aumenta il numero di domande a cui gli scienziati devono lavorare per progredire nella nostra conoscenza delle regole dell’universo, e capita nel mondo attuale che le cose che noi conosciamo siano in realtà una minima parte degli innumerevoli fenomeni cui la natura può dare origine. I grandi interrogativi esistenziali sono appannaggio di filosofia e religioni, ciononostante alcuni degli aspetti più evidenti del nostro universo sono anche quelli che sollevano le questioni più importanti.

MATERIA ED ANTIMATERIA

Uno dei meccanismi che ancora non si sono compresi fino in fondo, riguarda la creazione della materia e dell’antimateria (ne abbiamo già parlato, ricordate?). Appare evidente come la porzione di universo che possiamo osservare sia formata nella sua quasi totalità da materia ordinaria, a scapito dell’antimateria che rimane confinata alle grandi reazioni energetiche nel cosmo o negli acceleratori di particelle. Insomma, se in queste reazioni materia ed antimateria vengono prodotte assieme, com’è possibile che ci sia attualmente un universo composto unicamente da una sola di queste due entità? La spiegazione che gli scienziati si danno sembrerebbe essere corretta ma parziale: in natura esiste una particolare violazione di questa simmetria (detta simmetria CP), che spiega qualitativamente la possibilità che la materia prevalga sull’antimateria. Il problema è che la frequenza con cui la rottura della simmetria si verifica non è sufficiente a spiegare l’enorme sproporzione che vige nel nostro universo. Si spera che con i prossimi esperimenti a LHC, in grado di creare in piccolo le condizioni immediatamente successive al Big Bang, si possano svelare i meccanismi più intimi del mondo microscopico, tra cui eventuali nuove vie per cui la simmetria CP venga violata più frequentemente.

IL DESTINO DELL’UNIVERSO

Oggi sappiamo con certezza che il nostro universo continua ad espandersi in seguito all’iniziale esplosione del Big Bang. L’astrofisico Edwin Hubble nel 1929 enunciò una legge tanto importante quanto semplice: la velocità di allontanamento delle galassie da noi è tanto grande quanto è maggiore la distanza che ci separa da esse. Le teorie del Big Bang ricevettero così una notevole conferma sperimentale, e oramai il concetto inerente la nascita dell’universo come un’immane esplosione è ben presente nell’immaginario collettivo. Quel che ancora non si è capito bene, è la fine che farà il nostro universo. Appurato che la situazione in cui ci troviamo non è statica, ma dinamica, si aprono di fronte a noi due possibilità, che prendono il nome di universo aperto e universo chiuso. In un universo aperto l’espansione continuerà all’infinito, iniziando a rallentare sempre più ma senza mai fermarsi, e aumentando il famoso “grado di entropia”, cioè la quantità di caos. Dato che energia e materia non si creano, ma tutt’al più possono essere trasformate l’una nell’altra, ne consegue che la somma di queste due entità rimane costante nel tempo. Per cui in un universo in espansione farà sempre più freddo, essendoci sempre più spazio a disposizione, fino a che le ultime stelle finiranno di bruciare e non ci sarà una densità di energia o materia sufficiente a innescare la formazione di nuovi astri.
La teoria dell’universo chiuso invece prevede che a un certo punto l’espansione si fermi sotto l’influsso dell’attrazione gravitazionale operata dalla materia, e inizi una fase di contrazione che porterebbe infine ad un Big Crunch: così come il Big Bang è stata un esplosione partita da un singolo punto geometrico nello spazio, il Big Crunch rappresenterebbe il fenomeno opposto, con la materia che finisce per concentrarsi in un’unica singolarità sotto l’effetto della propria attrazione. L’effetto sarebbe quello di creare un secondo Big Bang e così via, con l’universo che continua a pulsare nel tempo tra incredibili esplosioni ed altrettanto sbalorditive implosioni.

MATERIA ED ENERGIA OSCURA

“È una situazione alquanto imbarazzante dover ammettere che non riusciamo a trovare il 90 per cento della materia dell’Universo.” così si espresse l’astrofisico Bruce Margon in un articolo pubblicato sul New York Times qualche anno fa. La situazione, detta in parole povere, è questa: per quel che noi vediamo e percepiamo attraverso i nostri strumenti, il cosmo non dovrebbe esistere così come lo vediamo. Le galassie non dovrebbero stare assieme, la loro velocità di rotazione dovrebbe essere differente, e dovrebbero essere a uno stadio di vita molto più acerbo rispetto alla loro attuale età cosmologica. Insomma, là fuori ci dev’essere per forza qualcosa che noi non riusciamo a vedere, percepire, identificare. L’idea che energia e materia siano trasformabili l’una nell’altra risale alla famosa formula della relatività di Einstein E = mc^2. Facendo i dovuti calcoli, le masse di materia oscura e ordinaria rappresentano rispettivamente l’80% e il 20 % del totale dell’universo, che tradotte in energia significa il 23% e il 4,6% circa. Ora capite bene che 23 + 4,6 non fa di certo 100, per cui così come alla materia ordinaria si accompagnano i quanti di energia che tutti noi conosciamo con il nome di fotoni, analogamente per la materia oscura dovrà esserci un altrettanto oscura energia che bilanci il totale dell’equazione. La presenza della dark energy appare quanto mai necessaria, dato che dalle ultime osservazioni effettuate, l’espansione dell’universo sembra stia accelerando, ad un ritmo tale da risultare insostenibile per l’energia ordinaria. Da che cosa siano formate queste due entità è tutt’ora un mistero, sebbene ci siano molte teorie sulla loro natura, molte delle quali tirano in ballo la teoria delle stringhe supersimmetrica e derivati (compresa una teoria ai limiti della fantascienza, che comprende la gravitazione di invisibili mondi paralleli, ndObi). La situazione della ricerca è in realtà molto meno anomala di quanto si possa credere: praticamente tutta la fisica sub atomica risulta a conti fatti inosservabile direttamente, e quando qualcuno dice di aver trovato una nuova particella, in realtà vi sta dicendo che ha osservato le prove della sua esistenza. Nessuno ha mai visto un neutrone, un protone o un elettrone direttamente (non avrebbe nemmeno troppo senso affermarlo, visto che le particelle hanno dimensioni molto minori rispetto alla lunghezza d’onda della luce), tuttavia nessuno scienziato degno di questo nome si sognerebbe mai di dirvi che non esistono. L’unica certezza che abbiamo è che, come in molti altri campi, i misteri da risolvere sono ancora moltissimi e che, mai come oggi, the truth is out there!

Era meglio se le scarpe le facevano tutte con lo strappo…

Ben trovati, cari lettori di Camminando Scalzi. Stavolta voglio parlarvi di un argomento piuttosto complesso, che i più nerd tra voi avranno magari anche intuito leggendo il delirante titolo che accompagna questo scritto. Sto parlando della teoria delle stringhe, che è tanto in auge ultimamente tra moltissimi fisici teorici e che sembra sia in grado di spiegare molte cose (non tutte purtroppo…) che finora erano rimaste orfane di un’interpretazione valida. Prima di risolvere un problema però occorre definire bene le ipotesi di partenza, per cui devo introdurre il mondo in cui questa teoria va ad inserirsi, o io per primo rischio di non riuscire più a slacciare i nodi salienti che voglio esporvi.

FATTI IL FISICO
La fisica viene spesso definita la regina delle scienze. È infatti l’unica disciplina in grado di analizzare tanto l’infinitamente grande quanto l’infinitamente piccolo, con tutto ciò che sta in mezzo, ovviamente). Le quattro differenti forze naturali giocano un ruolo differente a seconda della scala spaziale che noi andiamo ad elaborare. Così la forza formalmente meno intensa delle quattro presenti in natura, l’attrazione gravitazionale, è importante solamente nel mondo macroscopico, ovvero quando si considerano oggetti di massa elevata. Le interazioni elettromagnetiche sono decisamente più intense (parliamo di circa 37 ordini di grandezza), e i loro effetti sono sotto i nostri occhi tutti i giorni, quando ascoltiamo la radio, guardiamo la tv o usiamo il computer, tanto per fare un esempio. In virtù di questa loro maggiore intensità, esse sono importanti sia a livello microscopico, che a livello macroscopico, tant’è che gli elettroni orbitano attorno all’atomo proprio in virtù dell’attrazione elettromagnetica. La forza debole è responsabile del decadimento radioattivo di alcuni atomi, così come di alcune interazioni che avvengono tra particelle a livello subatomico. Infine, la forza nucleare forte è responsabile sia dell’attrazione che c’è tra le componenti dei nuclei atomici (neutroni e protoni), sia di quella presente tra i quark che formano gli stessi neutroni e protoni. La teoria che fino ad adesso la fa da padrona è il Modello Standard. Esso è in grado di descrivere con precisione tutte le particelle elementari ad oggi note e tutte le forze naturali, eccetto la gravitazionale. Si tratta di un risultato eccezionale dal punto di vista teorico, dato che finora ha retto piuttosto bene tutte le prove che si sono susseguite negli anni nella miriade di acceleratori di particelle che sono stati costruiti in giro per il nostro pianeta. Tuttavia è ben lungi dall’essere considerata una teoria completa, non comprendendo la gravità e non essendoci spiegazione riguardo la presenza della materia oscura, di cui il nostro universo sembra essere permeato. Il modello standard stabilisce, tra le altre cose, che le forze EM, debole e forte tra le particelle sono mediate da altre particelle, i cosiddetti bosoni di gauge. Per il campo elettromagnetico, ad esempio, la particella mediatrice è esattamente il fotone. In pratica, ciò che noi percepiamo della realtà è il risultato di una miriade di interazioni microscopiche, che noi per comodità tendiamo a raggruppare a seconda delle scale e delle tipologie di interazione. È importante però capire che la fisica non descrive la natura per quella che realmente è: il suo scopo è quello di studiare i fenomeni naturali, ossia tutti gli eventi a cui noi possiamo associare delle grandezze fisiche, in modo tale da poter stabilire delle leggi matematiche che regolino le interazioni tra le grandezze stesse e rendano conto delle loro reciproche variazioni. Il fisico modellizza a livello matematico la natura, cercando di trovare un qualcosa che sia in grado di descrivere in maniera completa ogni possibile accadimento che può avvenire nell’universo. È quindi importante capire che, sebbene nei libri possiamo ad esempio trovare l’immagine di un atomo formato da tante palline rosse (gli elettroni) in orbita attorno a palline gialle e blu (neutroni e protoni), quella è solamente una rappresentazione, e che nella realtà elettroni, protoni, atomi e particelle non sono palline che si muovono nello spazio, e anche la loro rappresentazione a livello matematico è ben lungi dall’essere di questo tipo. Ricordatevi che le mele cadevano anche prima che Newton scrivesse la legge di gravitazione universale…

PUNTI, STRINGHE, MEMBRANE… D-BRANE?

Tralasciando la teoria delle stringhe bosonica, la teoria delle stringhe a cui solitamente ci si riferisce con questa nomenclatura è la variante supersimmetrica a 11 dimensioni. Si tratta di un modello fisico in cui gli elementi costituenti della realtà non sono più oggetti idealizzabili come punti di dimensione zero, ma possono essere anche stringhe (1 dimensione), membrane (2 dimensioni), o D-brane (D dimensioni). La più grande speranza riposta in questo modello è che possa finalmente riuscire a tener conto di tutte le quattro forze naturali fondamentali assieme, dando origine quindi alla teoria del Tutto, tanto agognata dai fisici teorici di tutto il mondo. In linea teorica essa è in grado di tener conto di tutto, ma non si sa bene ancora se in effetti la descrizione che ne salterà fuori sia quella di un universo con le stesse caratteristiche del nostro. Sebbene la comprensione dei dettagli riguardo al comportamento di queste stringhe richieda capacità matematiche che sfuggono anche al fisico medio (me compreso), è possibile condurre delle analogie con le normali corde che illustrano in maniera abbastanza intuitiva alcune delle caratteristiche di questi oggetti. Le stringhe sono soggette a tensione, tipo corda di chitarra. Se ve la immaginate chiusa su sé stessa, potete immaginare che la tensione la faccia man mano rimpicciolire, fino a raggiungere un limite inferiore (da determinarsi tramite un principio fisico che prende il nome da Heisenberg, il famoso “principio di indeterminazione“). Di conseguenza, più una stringa è piccola, maggiore sarà la sua tensione caratteristica. Ora: una corda che riceva un impulso di forza trasversale rispetto alla direzione della tensione, tende a vibrare ad un serie di frequenze ben precise, proprio come le corde di una chitarra. Le differenti modalità di vibrazione delle differenti stringhe si manifesterebbero come le particelle che vengono trattate dal modello standard. La capacità di unire scale spaziali che precedentemente, in virtù della loro grande differenza, avevano messo in crisi sia la fisica classica che la fisica quantistica risiede in una proprietà detta dualità. In ESTREMA semplificazione, ogni aspetto apparentemente distinto dagli altri della natura, sviluppato sulla base delle teorie delle stringhe, risulta essere un caso particolare di una teoria più grossa, cosicchè è in effetti possibile passare da un aspetto all’altro senza variare il contesto matematico (e i concetti che vi stanno dietro) in cui si agisce, da cui la dualità di cui sopra… Posso sempre mettere in relazione matematica due aspetti apparentemente molto differenti, passando da uno all’altro tramite opportune trasformazioni matematiche.

Una delle caratteristiche più interessanti della teoria è che essa, a partire dai principi primi su cui è basata, arriva a determinare matematicamente il numero di dimensioni di cui è composto l’universo. Nelle teorie precedenti infatti il numero di dimensioni (3+1) veniva imposto dal fisico, in quanto 3+1 sono effettivamente le dimensioni che noi percepiamo. Unico problema: se fate i calcoli, di dimensioni ne escono 11. Tante quanti i giocatori di una squadra di calcio. Se poi al posto della teoria supersimmetrica fate i calcoli per quella bosonica, aggiungete al conto delle dimensioni anche una squadra di rugby (11+15=26). Difatto, per giustificare questa cosa, i fisici teorici vi diranno che le dimensioni extra sono matematicamente ricompattabili (con successo) su di loro. Che detto in parole povere, significa che i loro effetti hanno raggi efficaci talmente minuscoli da non poter essere verificati tramite esperimenti, allo stato attuale della tecnologia. Insomma è un po’ come quando guardate le stelle: a voi sembrano punti senza dimensioni, mentre sappiamo bene che sono palle di plasma incandescende del diametro di diversi milioni di chilometri, e che quindi esistono a tutti gli effetti nelle loro tre dimensioni spaziali.

Al di là della sua effettiva comprensibilità, la teoria delle stringhe presenta ancora molti (è il caso di dirlo) nodi irrisolti. Innanzitutto essa non è verificabile, ora come ora. Ciò non deve sembrare anomalo, dato che solitamente la fisica teorica precede quella sperimentale di circa 30 o 40 anni, tant’è che solo negli ultimi anni siamo stati in grado di costruire acceleratori di particelle che confermassero appieno la bontà del modello standard nell’ambito della fisica della alte energie (e LHC, di cui ho già parlato qui su CS, dovrebbe aggiungere, tra le altre cose, l’importante tassello del bosone di Higgs… E se non lo farà ci sarà da ridere). Le caratteristiche più interessanti della teoria delle stringhe sono di carattere matematico, e riguardano soprattutto i risultati che potrebbe dare, piuttosto che ciò che restituisce attualmente. A prova di ciò, basti pensare che con i pochi elementi certi che abbiamo per ora tra le mani, la teoria delle stringhe può fornire più di 10500 modellizzazioni di universi, ognuno dei quali con le proprie leggi fisiche, tra i quali ci dovrebbe essere il nostro. Ammettere l’esistenza di un numero pressochè infinito di universi non rappresenta un problema (anzi spiega alcuni aspetti della cosmologia moderna), il fatto è che non sappiamo ancora dire quale dei modelli è effettivamente valido, non potendolo verificare. Per osservare in maniera diretta le stringhe, si dovrebbero poter osservare distintamente distanze nell’ordine dei 10-35 metri, dove LHC arriva al massimo a circa 10– 19. Tuttavia, una delle prove della validità della teoria delle stringhe dovrebbe proprio provenire da LHC, in grado di dare evidenza indiretta dell’esistenza di questi oggetti tramite particolari collisioni al suo interno.

Avreste mai pensato che per legarvi le scarpe avreste dovuto utilizzare un acceleratore di particelle?

It's the end of the world as we know it…

Come oramai avrete appreso dai TG sparsi in giro per i canali televisivi, al di sotto della ridente città svizzera di Ginevra corrono 27 chilometri di tunnel circolare, al cui interno è situato LHC. Il Large Hadron Collider è il più potente acceleratore di particelle mai costruito. Come si intuisce dal suo nome, compito di LHC è quello di provocare collisioni tra fasci di protoni (che sono adroni, in quanto risentono dell’interazione con la forza nucleare forte) ad energie mai sperimentate prima, nella speranza di riuscire a rispondere ad alcune tra le più importanti domande a cui la fisica delle particelle non ha ancora saputo rispondere. lhc 2Per poter mantenere stabilmente i protoni nell’orbita curvilinea dell’acceleratore, è necessario deviare e focalizzare continuamente il fascio tramite l’utilizzo di intensissimi campi magnetici. Se 8 Tesla possono sembrarvi pochi, considerate che il campo magnetico terrestre misurato sulla superficie del nostro pianeta è circa 10 ordini di grandezza meno intenso. L’unico modo per ottenere una campo magnetico di questa portata è tramite degli enormi elettromagneti, all’interno dei quali vengono fatti circolare correnti elettriche intensissime. Come chiunque possieda un computer o anche un semplice caricabatterie per cellulari sa, una corrente fatta circolare all’interno di un circuito elettrico provoca un riscaldamento dello stesso, per effetto della resistenza che oppongono le varie componenti del sistema che viene alimentato. Il riscaldamento è proporzionale, oltre che alla resistenza, al quadrato della corrente che percorre il nostro circuito, per cui potete ben immaginare che se le cose stessero così, i supermagneti inizierebbero a fondersi a causa di questo effetto (chiamato “effetto Joule“) pochi istanti dopo esser stati accesi. Fortunatamente alcuni materiali, se raffreddati a temperature criogeniche, diventano superconduttori, ovvero sono in grado di condurre la corrente elettrica senza resistenza. A questo punto, “bastano” 96 tonnellate di elio liquido, a 1,7 gradi sopra lo zero assoluto, fatti circolare nel più grande impianto criogenico del mondo, e si ottengono i 1600 magneti superconduttori che permettono ai due fasci di protoni contrapposti di viaggiare al 99.9999991% della velocità della luce, facendosi qualche milione di rivoluzioni attorno a Ginevra prima di impattare l’uno contro l’altro. Ovviamente, casomai anche uno solo dei magneti dovesse smettere di comportarsi da superconduttore, si avrebbero delle conseguenze catastrofiche. Il problema minore sarebbe la variazione del campo magnetico (il cosiddetto magnetic quenching), che determinerebbe la perdita del fascio contro le pareti dell’acceleratore. Poco male, direte voi, morto un fascio se ne fa un altro. lhc 1Purtroppo niente superconduzione = effetto Joule, per cui al magnete resterebbero ben pochi istanti di vita. Se poi considerate che l’elio liquido è in quello stato grazie alle fortissime pressioni a cui viene mantenuto, e che un gas riscaldato tende ad espandersi alla stregua della miscela aria benzina che esplode all’interno del pistone di un motore, capite che i danni provocati da un simile malfunzionamento sono particolarmente gravi. Il 19 settembre 2008, durante una prova ad alta energia, da una delle saldature presenti nel supermagnete risultata poi difettosa, scaturì un arco elettrico, che rompendo il contenimendo dell’elio liquido, diede inizio alla cascata di effetti che ho descritto sopra. Le operazioni di riparazione sono durate più di un anno, aggravando ulteriormente un bilancio che già ammontava a ben 9 miliardi di dollari, rendendo LHC il più costoso esperimento scientifico mai organizzato nella storia dell’uomo. Tuttavia un anno è passato, ed è finalmente giunto il momento di vedere cosa è in grado di fare la macchina più complessa, avanzata e perfezionata che l’uomo abbia mai creato.

La prima notizia è questa: il 30 Novembre 2009 c’è stata la prima “vera” collisione dentro LHC. Durante le prime ore della mattina due fasci di protoni da 1,18 TeV (l’elettronvolt è l’unità di misura dell’energia su scala microscopica equivale a 1,6×10^-19 joule. Quindi 1,18 TeV sono circa 0,00000018 Joule) si sono scontrati, generando una collisione da 2,38TeV nel centro di massa. Se considerate che hanno iniziato a far partire LHC 10 giorni prima, dopo il guasto che l’aveva tenuto fermo per più di un anno, e che proprio nella prima run abbia stabilito il nuovo record mondiale di energia in un acceleratore, c’è da fare i complimenti a chi ha costruito questo ciambellone da 27 Km. La seconda notizia importante che mi sento in dovere di darvi è questa: il mondo non è finito. lhc 3Per carità, probabile che ve ne siate accorti nel frattempo, ma per chi temeva potessero insorgere fratture nello spazio tempo e piccole apocalissi dentro al tunnel che corre sotto Ginevra, sono portatore di buone notizie. Dunque nessun mini buco nero, nessuno “strangelet” in grado di convertire la materia ordinaria in materia strana (che si ipotizza esistere al centro delle stelle a neutroni), nessun errore di segmentation fault nel codice di Matrix. Sebbene la maggior parte delle persone possa giudicare questa effettivamente una buona notizia, il fatto che nessun telegiornale nazionale si sia preoccupato di riportarla (diversamente da quando qualche sedicente pseudoscenziato paventava la possibilità che finissimo tutti risucchiati in una singolarità o amenità del genere) mi fa pensare che i giornalisti in Italia stiano dalla parte degli aztechi… Peccato Quetzalcoatl, ci incontreremo con il prossimo acceleratore! Il programma al CERN ora è abbastanza semplice: si tratterà di innalzare sempre di più l’energia dei due fasci a ogni collisione, fino a raggiungere i 7 TeV per protone, ottenendo così collisioni da 14 TeV. Queste energie sono necessarie ad indagare sempre più in dettaglio la materia e ciò che la compone. In particolare, sebbene non sia l’unico esperimento in corso e gli interrogativi a cui si spera di dare una risposta siano tanti, grande attenzione verrà riservata nella ricerca del famoso Bosone di Higgs. Questa particella, che qualcuno forse con poca lungimiranza ha subito soprannominato “particella di Dio”, è secondo il Modello Standard (la teoria in grado di descrivere le interazioni debole, forte ed elettromagnetica coerentemente con la meccanica quantistica e con la relatività speciale) la responsabile delle diverse masse delle particelle elementari. E’ quindi importante capire come i costituenti della materia ordinaria interagiscano con il campo generato dal nostro bosone, che se risultasse assente ingiustificato farebbe crollare un bel pezzo della teoria su cui si basa praticamente tutta la fisica delle particelle.