Le domande senza risposta della fisica moderna

Se andate dall’uomo della strada a chiedergli quale sia la sua concezione di scienziato in generale, con tutta probabilità egli vi risponderà che uno scienziato è colui che cerca e dà risposte. Tuttavia lo scopo della scienza non è tanto quello di dare delle risposte, quanto quello di porsi le domande giuste. Ogni risposta, per quanto dettagliata possa essere, sarà sempre incompleta di fronte a quella che è la natura delle cose. Ogni risposta inevitabilmente aumenta il numero di domande a cui gli scienziati devono lavorare per progredire nella nostra conoscenza delle regole dell’universo, e capita nel mondo attuale che le cose che noi conosciamo siano in realtà una minima parte degli innumerevoli fenomeni cui la natura può dare origine. I grandi interrogativi esistenziali sono appannaggio di filosofia e religioni, ciononostante alcuni degli aspetti più evidenti del nostro universo sono anche quelli che sollevano le questioni più importanti.

MATERIA ED ANTIMATERIA

Uno dei meccanismi che ancora non si sono compresi fino in fondo, riguarda la creazione della materia e dell’antimateria (ne abbiamo già parlato, ricordate?). Appare evidente come la porzione di universo che possiamo osservare sia formata nella sua quasi totalità da materia ordinaria, a scapito dell’antimateria che rimane confinata alle grandi reazioni energetiche nel cosmo o negli acceleratori di particelle. Insomma, se in queste reazioni materia ed antimateria vengono prodotte assieme, com’è possibile che ci sia attualmente un universo composto unicamente da una sola di queste due entità? La spiegazione che gli scienziati si danno sembrerebbe essere corretta ma parziale: in natura esiste una particolare violazione di questa simmetria (detta simmetria CP), che spiega qualitativamente la possibilità che la materia prevalga sull’antimateria. Il problema è che la frequenza con cui la rottura della simmetria si verifica non è sufficiente a spiegare l’enorme sproporzione che vige nel nostro universo. Si spera che con i prossimi esperimenti a LHC, in grado di creare in piccolo le condizioni immediatamente successive al Big Bang, si possano svelare i meccanismi più intimi del mondo microscopico, tra cui eventuali nuove vie per cui la simmetria CP venga violata più frequentemente.

IL DESTINO DELL’UNIVERSO

Oggi sappiamo con certezza che il nostro universo continua ad espandersi in seguito all’iniziale esplosione del Big Bang. L’astrofisico Edwin Hubble nel 1929 enunciò una legge tanto importante quanto semplice: la velocità di allontanamento delle galassie da noi è tanto grande quanto è maggiore la distanza che ci separa da esse. Le teorie del Big Bang ricevettero così una notevole conferma sperimentale, e oramai il concetto inerente la nascita dell’universo come un’immane esplosione è ben presente nell’immaginario collettivo. Quel che ancora non si è capito bene, è la fine che farà il nostro universo. Appurato che la situazione in cui ci troviamo non è statica, ma dinamica, si aprono di fronte a noi due possibilità, che prendono il nome di universo aperto e universo chiuso. In un universo aperto l’espansione continuerà all’infinito, iniziando a rallentare sempre più ma senza mai fermarsi, e aumentando il famoso “grado di entropia”, cioè la quantità di caos. Dato che energia e materia non si creano, ma tutt’al più possono essere trasformate l’una nell’altra, ne consegue che la somma di queste due entità rimane costante nel tempo. Per cui in un universo in espansione farà sempre più freddo, essendoci sempre più spazio a disposizione, fino a che le ultime stelle finiranno di bruciare e non ci sarà una densità di energia o materia sufficiente a innescare la formazione di nuovi astri.
La teoria dell’universo chiuso invece prevede che a un certo punto l’espansione si fermi sotto l’influsso dell’attrazione gravitazionale operata dalla materia, e inizi una fase di contrazione che porterebbe infine ad un Big Crunch: così come il Big Bang è stata un esplosione partita da un singolo punto geometrico nello spazio, il Big Crunch rappresenterebbe il fenomeno opposto, con la materia che finisce per concentrarsi in un’unica singolarità sotto l’effetto della propria attrazione. L’effetto sarebbe quello di creare un secondo Big Bang e così via, con l’universo che continua a pulsare nel tempo tra incredibili esplosioni ed altrettanto sbalorditive implosioni.

MATERIA ED ENERGIA OSCURA

“È una situazione alquanto imbarazzante dover ammettere che non riusciamo a trovare il 90 per cento della materia dell’Universo.” così si espresse l’astrofisico Bruce Margon in un articolo pubblicato sul New York Times qualche anno fa. La situazione, detta in parole povere, è questa: per quel che noi vediamo e percepiamo attraverso i nostri strumenti, il cosmo non dovrebbe esistere così come lo vediamo. Le galassie non dovrebbero stare assieme, la loro velocità di rotazione dovrebbe essere differente, e dovrebbero essere a uno stadio di vita molto più acerbo rispetto alla loro attuale età cosmologica. Insomma, là fuori ci dev’essere per forza qualcosa che noi non riusciamo a vedere, percepire, identificare. L’idea che energia e materia siano trasformabili l’una nell’altra risale alla famosa formula della relatività di Einstein E = mc^2. Facendo i dovuti calcoli, le masse di materia oscura e ordinaria rappresentano rispettivamente l’80% e il 20 % del totale dell’universo, che tradotte in energia significa il 23% e il 4,6% circa. Ora capite bene che 23 + 4,6 non fa di certo 100, per cui così come alla materia ordinaria si accompagnano i quanti di energia che tutti noi conosciamo con il nome di fotoni, analogamente per la materia oscura dovrà esserci un altrettanto oscura energia che bilanci il totale dell’equazione. La presenza della dark energy appare quanto mai necessaria, dato che dalle ultime osservazioni effettuate, l’espansione dell’universo sembra stia accelerando, ad un ritmo tale da risultare insostenibile per l’energia ordinaria. Da che cosa siano formate queste due entità è tutt’ora un mistero, sebbene ci siano molte teorie sulla loro natura, molte delle quali tirano in ballo la teoria delle stringhe supersimmetrica e derivati (compresa una teoria ai limiti della fantascienza, che comprende la gravitazione di invisibili mondi paralleli, ndObi). La situazione della ricerca è in realtà molto meno anomala di quanto si possa credere: praticamente tutta la fisica sub atomica risulta a conti fatti inosservabile direttamente, e quando qualcuno dice di aver trovato una nuova particella, in realtà vi sta dicendo che ha osservato le prove della sua esistenza. Nessuno ha mai visto un neutrone, un protone o un elettrone direttamente (non avrebbe nemmeno troppo senso affermarlo, visto che le particelle hanno dimensioni molto minori rispetto alla lunghezza d’onda della luce), tuttavia nessuno scienziato degno di questo nome si sognerebbe mai di dirvi che non esistono. L’unica certezza che abbiamo è che, come in molti altri campi, i misteri da risolvere sono ancora moltissimi e che, mai come oggi, the truth is out there!

Pubblicità

L'antiarticolo che non vi aspettavate

Cari lettori di Camminando Scalzi, i tempi sono maturi affinché noi si esplori assieme una delle entità più fanta-evocative che l’universo ci mette a disposizione. Se avete visto almeno una qualsiasi puntata di Star Trek sapete a cosa mi riferisco; per tutti gli altri, continuate a leggere se siete curiosi…

Tutto cominciò…

… Nel 1928 quando un allora ventiseienne Paul Dirac, giocando un po’ con l’equazione d’onda di Shroedinger (uno degli “esseri matematici” che stanno alla base della meccanica quantistica, e che descrive la propagazione delle particelle come delle onde) si rese conto che il risultato di suddetta equazione non cambiava se si invertiva simultaneamente sia il segno del termine di energia, sia quello temporale. Meno per meno fa più, come tutti sappiamo, di conseguenza Dirac postulò che, in termini meramente matematici, un elettrone (energia positiva) che si muove in avanti nel tempo (quindi positivo) equivaleva a quello che poi sarebbe diventato l’antielettrone (energia negativa) che si muove indietro nel tempo. Se la cosa vi lascia basiti, non preoccupatevi. Qua Ritorno al Futuro non c’entra, l’equivalenza regge puramente a livello matematico, e questo non significa che le antiparticelle si muovano tra il presente e il passato. La fisica si sforza di modellizzare a livello matematico la realtà per cercare di descriverla e prevederne l’evoluzione temporale, per cui se due modelli matematici differenti portano ai medesimi risultati, sono entrambi assolutamente validi.
Qualche tempo dopo, nel 1932, Carl Anderson scoprì proprio l’antielettrone, che con un immenso sforzo di immaginazione venne chiamato positrone, in quanto del tutto identico al suo cugino abituato ad orbitare attorno ai nuclei atomici, ma dotato di carica elettrica positiva. Il modello standard predice che ogni particella è dotata di un’anti-compagna, non importa quale sia il valore della sua carica elettrica, ed effettivamente fino a ora questa ipotesi è sempre stata confermata. La materia conosciuta, in tutto l’universo da noi osservabile, è composta da atomi, il cui nucleo è a sua volta composto da protoni e neutroni, attorno cui orbitano gli elettroni. Ora provate a immaginare un nucleo atomico composto da antiprotoni e antineutroni, attorno a cui ruotano antielettroni: in pratica, antimateria.

PIU’ CHE ESSERE DISINTEGRATO… ANNICHILITO?

Bene o male tutta la materia osservabile dalla Terra è composta unicamente da materia ordinaria, e questo trend sembra sia praticamente una costante (per fortuna) all’interno di tutto l’universo sino a ora osservato. Se infatti si fa interagire una particella con la propria antagonista, si assiste ad un fenomeno chiamato annichilazione: le due particelle vengono INTERAMENTE convertite in energia sotto forma di due raggi gamma (fotoni ad altissima frequenza). Se ci fossero regioni dell’universo in cui domina la presenza di antimateria, dovremmo essere in grado di vedere i continui raggi gamma prodotti ai bordi della stessa dall’interazione con la materia ordinaria che la circonda. È opinione diffusa che questo enorme disequilibrio tra antimateria e materia ordinaria (si stima un rapporto di 1/1079) debba essersi originato in un qualche momento immediatamente dopo il big bang.
Le antiparticelle vengono prodotte in natura tramite reazioni estremamente energetiche, come le collisioni dei raggi cosmici con l’atmosfera, o in alcuni decadimenti radioattivi. Esse sono del tutto identiche alle loro compagne, con i medesimi valori di massa, tempo di vita se esse decadono (la cosidetta emivita, in inglese half life; vi ricorda per caso un certo Gordon Freeman? ndR) e così via. L’unica differenza risiede nella carica elettrica, che è uguale e opposta. Artificialmente è possibile produrre antimateria negli acceleratori di particelle come LHC al CERN (ne abbiamo già parlato, ricordate? ndR). Nell’acceleratore europeo e al Fermilab di Chicago sono stati prodotti atomi di antiidrogeno e antielio, sebbene in numero estremamente ridotto e con tempi di vita estremamente brevi.

APPLICAZIONI PRATICHE: POSITRON EMISSION TOMOGRAPHY.

L’unica applicazione che ha trovato fino a ora l’antimateria è in campo medico, e prende il nome di tomografia a emissione di positroni (PET). In pratica si introduce all’interno del corpo un isotopo tracciante, che abbia un’emivita nell’ordine delle ore o giorni al massimo, per evitare che i pazienti inizino a brillare di luce propria o si trasformino in supereroi una volta terminata la procedura. Il decadimento dell’isotopo produce un positrone, che a sua volta si annichilerà immediatamente con un elettrone nelle vicinanze, generando due impulsi gamma che vengono quindi rilevati dalla macchina. È importante notare che la macchina rigetta tutti i singoli fotoni, tenendo conto solo delle coppie effettive (e quindi dei gamma che vengono rilevati a pochi nanosecondi di distanza). Grazie a questa tecnica è possibile quindi stabilire il punto del corpo da cui provengono i lampi gamma, ottenendo così l’immagine complessiva delle attività metaboliche. L’isotopo viene infatti legato a una molecola generalmente zuccherina, che entra quindi a far parte dei processi biochimici del nostro organismo. La PET quindi, invece di fornire un’immagine di tipo morfologico (come la TAC o le radiografie), è in grado di generare vere e proprie mappe dei processi funzionali all’interno del corpo.

POSSIBILI APPLICAZIONI FUTURE: ANTIMATTER ROCKET.

Nelle collisioni materia – antimateria la teoria ci dice che l’intera massa delle particelle viene convertita in energia, sotto forma dei due fotoni gamma. Facendo i dovuti calcoli, si ottiene che l’energia per unità di massa che viene rilasciata in queste reazioni è 10 miliardi di volte maggiore rispetto a una normale esplosione di tritolo, 10.000 volte maggiore rispetto all’energia derivante dalla fissione nucleare e 100 volte maggiore rispetto alla migliore reazione di fusione nucleare possibile. Anche supponendo un’efficienza nell’uso dell’energia del 50% – assolutamente realistica – si tratta semplicemente della migliore fonte di energia di sempre. Un ipotetico space shuttle alimentato ad antimateria, utilizzerebbe per il decollo circa 50g di combustibile, contro le 750 tonnellate di idrogeno e ossigeno che consuma attualmente. Capite bene che l’antimateria sembra essere il carburante candidato ideale per i futuri viaggi interplanetari e interstellari, in quanto permetterebbe di stivare un’immensa quantità di energia in uno spazio e con un peso estremamente contenuti. Purtroppo l’antimateria è sì il miglior carburante concepibile, ma è anche in assoluto la sostanza più costosa da produrre: una recente stima pone il costo di un grammo di positroni attorno ai 25 miliardi di dollari. Questo perché la sua produzione è legata all’utilizzo di grossi acceleratori di particelle, come quello del CERN: macchine enormi, costose da costruire e mantenere, concepite per un utilizzo sperimentale e quindi senza tenere conto dei loro consumi energetici. Sebbene la quantità di antimateria prodotta di anno in anno è cresciuta con una progressione geometrica dal 1955 ad oggi, non siamo nemmeno lontanamente vicini a poterla produrre a livello commerciale. Anche perché una volta prodotta, non sapremmo dove metterla: stoccare l’antimateria con della materia ordinaria è chiaramente impossibile, a meno di non voler generare dei piccoli brillamenti solari ogni qualvolta si cercasse di ricaricare la propria cella a positroni personale. Metodi di confinamento, basati sull’utilizzo di campi magnetici ed elettrici, sono già stati sperimentati, ma rimangono appannaggio di quelle stesse strutture che producono con tanta fatica e con costi esorbitanti le nostre antiparticelle. Eppure, prima o poi, qualcuno potrà ordinare “curvatura 5” al proprio timoniere senza correre il rischio di venire internato…

Era meglio se le scarpe le facevano tutte con lo strappo…

Ben trovati, cari lettori di Camminando Scalzi. Stavolta voglio parlarvi di un argomento piuttosto complesso, che i più nerd tra voi avranno magari anche intuito leggendo il delirante titolo che accompagna questo scritto. Sto parlando della teoria delle stringhe, che è tanto in auge ultimamente tra moltissimi fisici teorici e che sembra sia in grado di spiegare molte cose (non tutte purtroppo…) che finora erano rimaste orfane di un’interpretazione valida. Prima di risolvere un problema però occorre definire bene le ipotesi di partenza, per cui devo introdurre il mondo in cui questa teoria va ad inserirsi, o io per primo rischio di non riuscire più a slacciare i nodi salienti che voglio esporvi.

FATTI IL FISICO
La fisica viene spesso definita la regina delle scienze. È infatti l’unica disciplina in grado di analizzare tanto l’infinitamente grande quanto l’infinitamente piccolo, con tutto ciò che sta in mezzo, ovviamente). Le quattro differenti forze naturali giocano un ruolo differente a seconda della scala spaziale che noi andiamo ad elaborare. Così la forza formalmente meno intensa delle quattro presenti in natura, l’attrazione gravitazionale, è importante solamente nel mondo macroscopico, ovvero quando si considerano oggetti di massa elevata. Le interazioni elettromagnetiche sono decisamente più intense (parliamo di circa 37 ordini di grandezza), e i loro effetti sono sotto i nostri occhi tutti i giorni, quando ascoltiamo la radio, guardiamo la tv o usiamo il computer, tanto per fare un esempio. In virtù di questa loro maggiore intensità, esse sono importanti sia a livello microscopico, che a livello macroscopico, tant’è che gli elettroni orbitano attorno all’atomo proprio in virtù dell’attrazione elettromagnetica. La forza debole è responsabile del decadimento radioattivo di alcuni atomi, così come di alcune interazioni che avvengono tra particelle a livello subatomico. Infine, la forza nucleare forte è responsabile sia dell’attrazione che c’è tra le componenti dei nuclei atomici (neutroni e protoni), sia di quella presente tra i quark che formano gli stessi neutroni e protoni. La teoria che fino ad adesso la fa da padrona è il Modello Standard. Esso è in grado di descrivere con precisione tutte le particelle elementari ad oggi note e tutte le forze naturali, eccetto la gravitazionale. Si tratta di un risultato eccezionale dal punto di vista teorico, dato che finora ha retto piuttosto bene tutte le prove che si sono susseguite negli anni nella miriade di acceleratori di particelle che sono stati costruiti in giro per il nostro pianeta. Tuttavia è ben lungi dall’essere considerata una teoria completa, non comprendendo la gravità e non essendoci spiegazione riguardo la presenza della materia oscura, di cui il nostro universo sembra essere permeato. Il modello standard stabilisce, tra le altre cose, che le forze EM, debole e forte tra le particelle sono mediate da altre particelle, i cosiddetti bosoni di gauge. Per il campo elettromagnetico, ad esempio, la particella mediatrice è esattamente il fotone. In pratica, ciò che noi percepiamo della realtà è il risultato di una miriade di interazioni microscopiche, che noi per comodità tendiamo a raggruppare a seconda delle scale e delle tipologie di interazione. È importante però capire che la fisica non descrive la natura per quella che realmente è: il suo scopo è quello di studiare i fenomeni naturali, ossia tutti gli eventi a cui noi possiamo associare delle grandezze fisiche, in modo tale da poter stabilire delle leggi matematiche che regolino le interazioni tra le grandezze stesse e rendano conto delle loro reciproche variazioni. Il fisico modellizza a livello matematico la natura, cercando di trovare un qualcosa che sia in grado di descrivere in maniera completa ogni possibile accadimento che può avvenire nell’universo. È quindi importante capire che, sebbene nei libri possiamo ad esempio trovare l’immagine di un atomo formato da tante palline rosse (gli elettroni) in orbita attorno a palline gialle e blu (neutroni e protoni), quella è solamente una rappresentazione, e che nella realtà elettroni, protoni, atomi e particelle non sono palline che si muovono nello spazio, e anche la loro rappresentazione a livello matematico è ben lungi dall’essere di questo tipo. Ricordatevi che le mele cadevano anche prima che Newton scrivesse la legge di gravitazione universale…

PUNTI, STRINGHE, MEMBRANE… D-BRANE?

Tralasciando la teoria delle stringhe bosonica, la teoria delle stringhe a cui solitamente ci si riferisce con questa nomenclatura è la variante supersimmetrica a 11 dimensioni. Si tratta di un modello fisico in cui gli elementi costituenti della realtà non sono più oggetti idealizzabili come punti di dimensione zero, ma possono essere anche stringhe (1 dimensione), membrane (2 dimensioni), o D-brane (D dimensioni). La più grande speranza riposta in questo modello è che possa finalmente riuscire a tener conto di tutte le quattro forze naturali fondamentali assieme, dando origine quindi alla teoria del Tutto, tanto agognata dai fisici teorici di tutto il mondo. In linea teorica essa è in grado di tener conto di tutto, ma non si sa bene ancora se in effetti la descrizione che ne salterà fuori sia quella di un universo con le stesse caratteristiche del nostro. Sebbene la comprensione dei dettagli riguardo al comportamento di queste stringhe richieda capacità matematiche che sfuggono anche al fisico medio (me compreso), è possibile condurre delle analogie con le normali corde che illustrano in maniera abbastanza intuitiva alcune delle caratteristiche di questi oggetti. Le stringhe sono soggette a tensione, tipo corda di chitarra. Se ve la immaginate chiusa su sé stessa, potete immaginare che la tensione la faccia man mano rimpicciolire, fino a raggiungere un limite inferiore (da determinarsi tramite un principio fisico che prende il nome da Heisenberg, il famoso “principio di indeterminazione“). Di conseguenza, più una stringa è piccola, maggiore sarà la sua tensione caratteristica. Ora: una corda che riceva un impulso di forza trasversale rispetto alla direzione della tensione, tende a vibrare ad un serie di frequenze ben precise, proprio come le corde di una chitarra. Le differenti modalità di vibrazione delle differenti stringhe si manifesterebbero come le particelle che vengono trattate dal modello standard. La capacità di unire scale spaziali che precedentemente, in virtù della loro grande differenza, avevano messo in crisi sia la fisica classica che la fisica quantistica risiede in una proprietà detta dualità. In ESTREMA semplificazione, ogni aspetto apparentemente distinto dagli altri della natura, sviluppato sulla base delle teorie delle stringhe, risulta essere un caso particolare di una teoria più grossa, cosicchè è in effetti possibile passare da un aspetto all’altro senza variare il contesto matematico (e i concetti che vi stanno dietro) in cui si agisce, da cui la dualità di cui sopra… Posso sempre mettere in relazione matematica due aspetti apparentemente molto differenti, passando da uno all’altro tramite opportune trasformazioni matematiche.

Una delle caratteristiche più interessanti della teoria è che essa, a partire dai principi primi su cui è basata, arriva a determinare matematicamente il numero di dimensioni di cui è composto l’universo. Nelle teorie precedenti infatti il numero di dimensioni (3+1) veniva imposto dal fisico, in quanto 3+1 sono effettivamente le dimensioni che noi percepiamo. Unico problema: se fate i calcoli, di dimensioni ne escono 11. Tante quanti i giocatori di una squadra di calcio. Se poi al posto della teoria supersimmetrica fate i calcoli per quella bosonica, aggiungete al conto delle dimensioni anche una squadra di rugby (11+15=26). Difatto, per giustificare questa cosa, i fisici teorici vi diranno che le dimensioni extra sono matematicamente ricompattabili (con successo) su di loro. Che detto in parole povere, significa che i loro effetti hanno raggi efficaci talmente minuscoli da non poter essere verificati tramite esperimenti, allo stato attuale della tecnologia. Insomma è un po’ come quando guardate le stelle: a voi sembrano punti senza dimensioni, mentre sappiamo bene che sono palle di plasma incandescende del diametro di diversi milioni di chilometri, e che quindi esistono a tutti gli effetti nelle loro tre dimensioni spaziali.

Al di là della sua effettiva comprensibilità, la teoria delle stringhe presenta ancora molti (è il caso di dirlo) nodi irrisolti. Innanzitutto essa non è verificabile, ora come ora. Ciò non deve sembrare anomalo, dato che solitamente la fisica teorica precede quella sperimentale di circa 30 o 40 anni, tant’è che solo negli ultimi anni siamo stati in grado di costruire acceleratori di particelle che confermassero appieno la bontà del modello standard nell’ambito della fisica della alte energie (e LHC, di cui ho già parlato qui su CS, dovrebbe aggiungere, tra le altre cose, l’importante tassello del bosone di Higgs… E se non lo farà ci sarà da ridere). Le caratteristiche più interessanti della teoria delle stringhe sono di carattere matematico, e riguardano soprattutto i risultati che potrebbe dare, piuttosto che ciò che restituisce attualmente. A prova di ciò, basti pensare che con i pochi elementi certi che abbiamo per ora tra le mani, la teoria delle stringhe può fornire più di 10500 modellizzazioni di universi, ognuno dei quali con le proprie leggi fisiche, tra i quali ci dovrebbe essere il nostro. Ammettere l’esistenza di un numero pressochè infinito di universi non rappresenta un problema (anzi spiega alcuni aspetti della cosmologia moderna), il fatto è che non sappiamo ancora dire quale dei modelli è effettivamente valido, non potendolo verificare. Per osservare in maniera diretta le stringhe, si dovrebbero poter osservare distintamente distanze nell’ordine dei 10-35 metri, dove LHC arriva al massimo a circa 10– 19. Tuttavia, una delle prove della validità della teoria delle stringhe dovrebbe proprio provenire da LHC, in grado di dare evidenza indiretta dell’esistenza di questi oggetti tramite particolari collisioni al suo interno.

Avreste mai pensato che per legarvi le scarpe avreste dovuto utilizzare un acceleratore di particelle?

It's the end of the world as we know it…

Come oramai avrete appreso dai TG sparsi in giro per i canali televisivi, al di sotto della ridente città svizzera di Ginevra corrono 27 chilometri di tunnel circolare, al cui interno è situato LHC. Il Large Hadron Collider è il più potente acceleratore di particelle mai costruito. Come si intuisce dal suo nome, compito di LHC è quello di provocare collisioni tra fasci di protoni (che sono adroni, in quanto risentono dell’interazione con la forza nucleare forte) ad energie mai sperimentate prima, nella speranza di riuscire a rispondere ad alcune tra le più importanti domande a cui la fisica delle particelle non ha ancora saputo rispondere. lhc 2Per poter mantenere stabilmente i protoni nell’orbita curvilinea dell’acceleratore, è necessario deviare e focalizzare continuamente il fascio tramite l’utilizzo di intensissimi campi magnetici. Se 8 Tesla possono sembrarvi pochi, considerate che il campo magnetico terrestre misurato sulla superficie del nostro pianeta è circa 10 ordini di grandezza meno intenso. L’unico modo per ottenere una campo magnetico di questa portata è tramite degli enormi elettromagneti, all’interno dei quali vengono fatti circolare correnti elettriche intensissime. Come chiunque possieda un computer o anche un semplice caricabatterie per cellulari sa, una corrente fatta circolare all’interno di un circuito elettrico provoca un riscaldamento dello stesso, per effetto della resistenza che oppongono le varie componenti del sistema che viene alimentato. Il riscaldamento è proporzionale, oltre che alla resistenza, al quadrato della corrente che percorre il nostro circuito, per cui potete ben immaginare che se le cose stessero così, i supermagneti inizierebbero a fondersi a causa di questo effetto (chiamato “effetto Joule“) pochi istanti dopo esser stati accesi. Fortunatamente alcuni materiali, se raffreddati a temperature criogeniche, diventano superconduttori, ovvero sono in grado di condurre la corrente elettrica senza resistenza. A questo punto, “bastano” 96 tonnellate di elio liquido, a 1,7 gradi sopra lo zero assoluto, fatti circolare nel più grande impianto criogenico del mondo, e si ottengono i 1600 magneti superconduttori che permettono ai due fasci di protoni contrapposti di viaggiare al 99.9999991% della velocità della luce, facendosi qualche milione di rivoluzioni attorno a Ginevra prima di impattare l’uno contro l’altro. Ovviamente, casomai anche uno solo dei magneti dovesse smettere di comportarsi da superconduttore, si avrebbero delle conseguenze catastrofiche. Il problema minore sarebbe la variazione del campo magnetico (il cosiddetto magnetic quenching), che determinerebbe la perdita del fascio contro le pareti dell’acceleratore. Poco male, direte voi, morto un fascio se ne fa un altro. lhc 1Purtroppo niente superconduzione = effetto Joule, per cui al magnete resterebbero ben pochi istanti di vita. Se poi considerate che l’elio liquido è in quello stato grazie alle fortissime pressioni a cui viene mantenuto, e che un gas riscaldato tende ad espandersi alla stregua della miscela aria benzina che esplode all’interno del pistone di un motore, capite che i danni provocati da un simile malfunzionamento sono particolarmente gravi. Il 19 settembre 2008, durante una prova ad alta energia, da una delle saldature presenti nel supermagnete risultata poi difettosa, scaturì un arco elettrico, che rompendo il contenimendo dell’elio liquido, diede inizio alla cascata di effetti che ho descritto sopra. Le operazioni di riparazione sono durate più di un anno, aggravando ulteriormente un bilancio che già ammontava a ben 9 miliardi di dollari, rendendo LHC il più costoso esperimento scientifico mai organizzato nella storia dell’uomo. Tuttavia un anno è passato, ed è finalmente giunto il momento di vedere cosa è in grado di fare la macchina più complessa, avanzata e perfezionata che l’uomo abbia mai creato.

La prima notizia è questa: il 30 Novembre 2009 c’è stata la prima “vera” collisione dentro LHC. Durante le prime ore della mattina due fasci di protoni da 1,18 TeV (l’elettronvolt è l’unità di misura dell’energia su scala microscopica equivale a 1,6×10^-19 joule. Quindi 1,18 TeV sono circa 0,00000018 Joule) si sono scontrati, generando una collisione da 2,38TeV nel centro di massa. Se considerate che hanno iniziato a far partire LHC 10 giorni prima, dopo il guasto che l’aveva tenuto fermo per più di un anno, e che proprio nella prima run abbia stabilito il nuovo record mondiale di energia in un acceleratore, c’è da fare i complimenti a chi ha costruito questo ciambellone da 27 Km. La seconda notizia importante che mi sento in dovere di darvi è questa: il mondo non è finito. lhc 3Per carità, probabile che ve ne siate accorti nel frattempo, ma per chi temeva potessero insorgere fratture nello spazio tempo e piccole apocalissi dentro al tunnel che corre sotto Ginevra, sono portatore di buone notizie. Dunque nessun mini buco nero, nessuno “strangelet” in grado di convertire la materia ordinaria in materia strana (che si ipotizza esistere al centro delle stelle a neutroni), nessun errore di segmentation fault nel codice di Matrix. Sebbene la maggior parte delle persone possa giudicare questa effettivamente una buona notizia, il fatto che nessun telegiornale nazionale si sia preoccupato di riportarla (diversamente da quando qualche sedicente pseudoscenziato paventava la possibilità che finissimo tutti risucchiati in una singolarità o amenità del genere) mi fa pensare che i giornalisti in Italia stiano dalla parte degli aztechi… Peccato Quetzalcoatl, ci incontreremo con il prossimo acceleratore! Il programma al CERN ora è abbastanza semplice: si tratterà di innalzare sempre di più l’energia dei due fasci a ogni collisione, fino a raggiungere i 7 TeV per protone, ottenendo così collisioni da 14 TeV. Queste energie sono necessarie ad indagare sempre più in dettaglio la materia e ciò che la compone. In particolare, sebbene non sia l’unico esperimento in corso e gli interrogativi a cui si spera di dare una risposta siano tanti, grande attenzione verrà riservata nella ricerca del famoso Bosone di Higgs. Questa particella, che qualcuno forse con poca lungimiranza ha subito soprannominato “particella di Dio”, è secondo il Modello Standard (la teoria in grado di descrivere le interazioni debole, forte ed elettromagnetica coerentemente con la meccanica quantistica e con la relatività speciale) la responsabile delle diverse masse delle particelle elementari. E’ quindi importante capire come i costituenti della materia ordinaria interagiscano con il campo generato dal nostro bosone, che se risultasse assente ingiustificato farebbe crollare un bel pezzo della teoria su cui si basa praticamente tutta la fisica delle particelle.