Capitolo 2.6.3. Veneziano

La Fisica delle particelle elementari

HOME PAGE

I LEPTONI

I QUARK

I COLORI

LE INTERAZIONI

 LA SCHERMATURA

IL MASCHERAMENTO

LA SIMMETRIA ELETTRODEBOLE

L'UNIFICAZIONE

 CONCLUSIONI

GLOSSARIO

BIBLIOGRAFIA

LINKS

FORUM

Indice Breve Storia della fisica delle particelle 

Enrico Fermi

.

Particelle e Cosmologia

 

Il Tevatron del Fermilab

 

oltre la teoria standard:

 

C'è un limite alla comprensione?

 


Le Scienze on line

Galileo - giornale di scienza e problemi globali


 

Large Hadron Collider

 

E-mail

 

 

 

Capitolo 2.6.3 Corde e unificazione di tutte le forze

Gabriele Veneziano, CERN

Come già spiegato da Guido Altarelli, il Modello Standard (MS) descrive quantitativamente molto bene tre delle quattro interazioni fondamentali oggi note, cioè le interazioni elettromagnetiche, quelle deboli e quelle cosiddette forti (o nucleari). Il MS non si occupa invece delle interazioni gravitazionali, anche perché la loro rilevanza è minima negli esperimenti attualmente in corso o in progetto agli acceleratori di particelle.

La conferma (venuta dal FermiLab) dell'esistenza del quark t, senza il quale tutto il MS diverrebbe privo di coerenza interna, rappresenta l'ultimo trionfo del MS. Sembra che ormai manchi solo all'appello la misteriosa particella di Higgs (o qualsiasi altro la sostituisca come responsabile della massa dei bosoni intermedi e dei fermioni) le cui proprietà non sono per altro molto ben specificate dal MS. Nel rapporto di Sergio Ferrara si spiega perché una teoria soddisfacente del bosone di Higgs sia difficile al di fuori dell'ambito di un nuovo schema teorico, quello della supersimmetria.

Il nuovo acceleratore LHC (per Large Hadron Collider), la cui costruzione è stata recentemente approvata al CERN dai paesi membri, saprà dirci, agli inizi del prossimo secolo, se schemi teorici quali la versione supersimmetrica del Modello Standard sopravviveranno o meno alle verifiche sperimentali. Tale conferma rappresenterebbe un vero trionfo per le idee teoriche sottostanti alla nostra comprensione delle forze non gravitazionali. Questo però renderebbe ancora più difficile ammettere la nostra totale impotenza davanti ai problemi concettuali posti dalla gravitazione.

``Physics thrives from crisis'' scriveva Steven Weinberg non molto tempo fa in una rassegna sul problema della costante cosmologica. Ebbene questi ultimi venti anni sono stati troppo avari di crisi o, se preferiamo, le uniche grosse crisi si sono limitate (sia al livello fenomenologico che a quello teorico) al campo della gravità e della cosmologia. Ma, prima di discutere quest'ultime, chiediamoci se è proprio vero che non ci sono problemi nel MS.

Nonostante i suoi grandi successi fenomenologici il MS soffre di alcuni problemi concettuali, soprattutto, come ho già richiamato, nel settore legato alla particella di Higgs. E' probabile che la supersimmetria aiuti a risolvere tale problema. Esiste anche, però, un problema più concettuale e generale, che neppure la supersimmetria è capace di ovviare, quello dei cosiddetti infiniti (o divergenze) che sono praticamente presenti in tutte le teorie quantistiche dei campi.

Tutti sappiamo dall'elettrodinamica classica che l'energia del campo elettrico generato da un elettrone puntiforme è, strettamente parlando, infinita. In meccanica quantistica la posizione dell'elettrone non è mai esattamente ben definita e, di conseguenza, la carica risulta meno localizzata che nel caso classico. Questo effetto riduce la divergenza di cui sopra ma non la elimina. Una simile divergenza appare nel calcolo della ``carica efficace" dell'elettrone quale misurata da un osservatore posto ad una certa distanza. Il fatto che, quantisticamente, si possano creare coppie virtuali elettrone-positrone fa sì che la carica ``nuda" dell'elettrone sia sempre più schermata via via che ci se ne allontana. Purtroppo, imponendo che a distanze macroscopiche la carica sia quella nota sperimentalmente, si trova che la carica efficace divieni infinita ad una distanza piccolissima (ma finita) dall'elettrone.

Il fatto che queste divergenze siano presenti in qualunque teoria relativistica dei campi ha bloccato per decenni il loro sviluppo. Fisici illustri, quali Landau o Dirac, non accettarono mai che una teoria piagata da infiniti avesse un valore fondamentale. Agli inizi degli anni trenta, fisici un po più pragmatici trovarono un modus vivendi con gli infiniti e da allora la ``linea del partito" è stata: purché la teoria sia ``rinormalizzabile" accettiamo pure gli infiniti!

La rinormalizzabilità di una teoria è un problema tecnico spesso notevole, ma il suo significato fisico è piuttosto semplice. Gli infiniti scaturiscono dal volere spingere la teoria dei campi, tale e quale, fino distanze piccolissime, infatti fino a distanza nulla. Per il principio di indeterminazione di Heisenberg, distanze sempre più piccole corrispondono ad impulsi ed energie sempre più alti. Il problema degli infiniti però esiste anche a basse energie poiché, quantisticamente, grandi e piccole energie si influenzano reciprocamente tramite effetti virtuali. Il comportamento poco buono della teoria dei campi a grandi energie produce così risultati privi di senso (infiniti) per grandezze misurabili a basse energie (quali appunto la massa e la carica dell'elettrone). A questo punto si possono prendere due atteggiamenti:

1. rifiutare in blocco la teoria locale dei campi e rinunciare così a tutto quello che ci offre (che non è affatto poco!)

2. accettare che essa sia valida soltanto fino ad una certa scala di distanze (di energie) ma non oltre.

Al contrario della prima, la seconda alternativa non rinuncia al potere predittivo della teoria dei campi. Essa implica però il pagamento di un certo ``prezzo" per l'ignoranza ammessa. Se il prezzo è finito (nel senso che spiegherò) la teoria è detta rinormalizzabile e viene accettata, mentre, nel caso opposto, viene messa al bando come teoria ``non-rinormalizzabile". Un prezzo finito significa accettare l'incapacit\`a (di principio, non tecnica) di predire un numero finito di parametri (ad es. la massa e la carica dell'elettrone). Appena noto sperimentalmente questo insieme finito di parametri, la teoria viceversa predice (a meno di difficoltà tecniche) tutte le altre grandezze osservabili (ad es. il famoso momento magnetico anomalo dell'elettrone (g-2), uno dei massimi successi della teoria dei campi).

Una volta accettato questo compromesso, la teoria quantistica dei campi ha conosciuto grandi successi, riuscendo a spiegare un'enormità di dati sperimentali in funzione di un ``piccolo numero" di parametri misurati, circa una ventina. Venti parametri possono sembrare molti per una teoria che si professa essere fondamentale, o pochi se si pensa alla quantità di dati raccolti e confrontati con la teoria nelle esperienze fatte al SPS, al LEP, al Tevatron, ecc. Senza entrare in merito a questo dibattito, è interessante chiedersi da dove venga questo numero di parametri liberi.

Il numero 20 (o giù di lì) scaturisce da un compromesso fra due tendenze opposte: le divergenze che, come ho spiegato, tendono ad aumentare il numero di parametri liberi e le simmetrie che tendono a diminuirlo. Per esempio, anche se la carica del protone èaltrettanto incalcolabile che quella dell'elettrone, una simmetria ci garantisce che le due sono uguali ed opposte riducendo così di un'unità il numero dei parametri liberi. Simmetrie più vaste riducono ad una sola costante fondamentale la grandezza delle tre forze non gravitazionali, o portano a predire vari rapporti di masse che entrano come parametri arbitrari nel MS. La supersimmetria riduce ulteriormente questa arbitrarietà.

La simmetria da sola però non basta: l'esempio emblematico di tale situazione è quello di una teoria quantistica della gravità che prende come punto di partenza la Relatività Generale (RG) di Einstein. Quest'ultima fu concepita proprio a partire da principi di simmetria, in particolare da quello dell'invarianza delle leggi della fisica sotto trasformazioni generali del sistema di riferimento. Numerose verifiche della RG Classica sono state finora coronate da successo, ivi compresa quella indiretta dell'irraggiamento di onde gravitazionali da sistemi di stelle binarie. La RG Classica è pure alla base di tutti i modelli di cosmologia, su cui è basata la nostra comprensione attuale dell'origine dell'Universo e degli elementi che lo compongono. Per tutti questi motivi, almeno ad un livello pragmatico, la RG èvista oggi come il completamento più ovvio del MS per estenderlo alle forze gravitazionali.

Purtroppo, al livello quantistico, la RG conduce a divergenze ben più severe di quelle incontrate nel trattare le altre tre interazioni. Il motivo fisico è quasi ovvio: le divergenze provengono, come abbiamo detto, dalla fisica delle altissime energie, ma il campo gravitazionale generato da una particella è proporzionale alla sua energia (principio di equivalenza) e quindi diviene sempre più importante man mano che ci si avvicina alle piccolissime distanze. Questo conduce a divergenze così violente che tutto il magnifico potere predittivo della teoria classica viene distrutto al livello quantistico. Nella terminologia spiegata sopra la versione quantistica della relatività generale è una teoria ``non-rinormalizzabile".

Per riassumere: le simmetrie aiutano, ma fino ad un certo punto. Nel caso delle interazioni non-gravitazionali si arriva ad un ottimo compromesso: una ventina di parametri (ed ancora meno se si aumenta la simmetria) per descrivere tutto il mondo complicato dei nuclei, degli atomi, delle molecole. Viceversa, nel caso della forza gravitazionale, la quantizzazione distrugge la predittività della teoria classica. Come ovviare ad un tale disastro? Nell'ambito della teoria dei campi il tentativo più interessante è stato senz'altro quello della supergravità (vedasi l'articolo di Sergio Ferrara), un tentativo di rendere la gravità meno divergente, cioè rinormalizzabile, aumentandone la simmetria. A parte il fatto che l'idea non ha funzionato al livello tecnico, questa filosofia accetta l'ineluttibilità degli infiniti accontentandosi che non siano troppo severi.

L'alternativa è di abbandonare la teoria locale dei campi e di sostituirla con una nuova teoria che, comportandosi meglio a grandi energie (piccole distanze), sia completamente libera da infiniti. Per salvaguardare il successo del MS è necessario che la nuova teoria si riduca alla teoria quantistica dei campi a grandi distanze, un pò come la relatività ristretta riproduce la fisica galileiana a piccole velocità, o la meccanica quantistica si riduce a quella classica per sistemi caratterizzati da un'azione grande rispetto ad Nel resto di questo articolo descriverò (in modo non tecnico {per un' esposizione leggermente più tecnico vedasi, ad es. G. Veneziano, ``Quantum Strings and the Constants of Nature",a proceedings Erice Summer School, 1989.}) l'unico candidato oggi noto per tale teoria finita, quella delle (super) corde (anche chiamate, con un inglesismo, stringhe).

Si sente talvolta dire che la teoria delle corde è stata scoperta ..... per caso. In effetti è più appropriato dire che la natura ha portato alla sua scoperta prima del tempo. Come spiegato da Altarelli, nell'ambito del MS si pensa che gli adroni (nucleoni, mesoni, ecc.) siano stati legati di quark tenuti permanentemente prigionieri da forze a lungo raggio. Per separare i quark all'interno di un adrone è necessario fornire un'energia proporzionale alla separazione desiderata come se gli stessi fossero tenuti insieme da una molla: la costante di proporzionalità, l'analogo della costante della molla, si chiama tensione della corda T ed il suo valore numerico è dell'ordine di 1013 GeV/cm.

Ci sono varie evidenze teoriche e sperimentali a favore dell'esistenza di una ``corda efficace" nella QCD, non ultime le traiettorie di Regge (dal nome del fisico torinese Tullio Regge che per primo le scoprì nell'ambito della diffusione da potenziale) quasi rettilinee su una decina di unità di momento angolare. E' stato proprio a partire da dati sperimentali di questo tipo che i modelli duali (successivamente capiti come modelli di corda) sono stati concepiti dal sottoscritto nel 1968 (in un lavoro pubblicato al CERN) e sviluppati da molti altri teorici (fra cui gli italiani Sergio Fubini, Daniele Amati, Claudio Rebbi, Paolo Di Vecchia, Ferdinando Gliozzi, Stefano Sciuto ed altri) negli anni 1968--1972.

Anche se il modello a corda per gli adroni aveva proprietà interessanti esso fu abbandonato quando i dati sperimentali (quali lo ``scaling" osservato nelle collisioni altamente inelastiche leptone--adrone o i ``jets" osservati a grandi angoli in collisioni adroniche) mostrarono definitivamente l'esistenza di oggetti praticamente puntiformi all'interno degli adroni, cosa assolutamente estranea al modello di corda. Infatti, in quest'ultimo, l'adrone è un oggetto esteso privo di strutture puntiformi e quindi incapace di sostenere urti violenti.

L'estensione spaziale dell'adrone DX e l'impulso trasferito massimo sopportabile DP sono ambedue dati dalla tensione della corda T e dalla costante di Planck tramite le relazioni:

e quindi pari, rispettivamente, a circa 1 fm = 10-13 cm e a 1 GeV/c.

L'esperienza mostra in effetti che il protone ha un'estensione spaziale di tale ordine di grandezza. Viceversa, e sfortunatamente per la vecchia teoria delle corde, esso riesce ad assorbire impulsi ben più elevati di DeltaP = 1GeV/c. Fu per questi motivi, principalmente, che la teoria delle corde fu abbandonata in favore della QCD agli inizi degli anni 70.

A questo punto si può capire perchè la teoria delle corde sia tornata alla ribalta (nel 1984) quale teoria finita di tutte le interazioni, ivi compresa la gravità. Il fatto che per una corda sia molto difficile sostenere impulsi trasferiti maggiori di DeltaP = SQRT(hbar*T) diventa un pregio, piuttosto che un difetto, se si vuole risolvere il problema degli infiniti associati alle grandi energie. Naturalmente, per non distruggere il successo della teoria dei campi, sarà opportuno spostare il taglio DeltaP molto al di sopra del GeV/c, semplicemente aumentando il valore numerico della tensione T Dato che la gravità diviene una forza paragonabile alle altre solo ad energie dell'ordine di 1018 GeV, si potrà aumentare il valore di T di ben 36 ordini di grandezza e ancora risolvere il problema causato dalle correzioni quantistiche alla gravità

La conseguenza di questo atteggiamento (proposto per la prima volta nel 1974 da Joel Scherk e John Schwarz, ma preso seriamente in considerazione solo dieci anni dopo) è di assumere che tutte le particelle fondamentali (compresi quarks, leptoni ma anche il fotone, il gravitone e i bosoni di gauge) siano corde di dimensioni piccolissime. Avendo infatti riscalato T per un fattore1036, le nuove corde avranno estensione fisica di circa 10-32 cm e saranno dunque quasi indistinguibili da punti veri e propri alle energie attuali. In altre parole, si può vedere la teoria delle corde come un'ipotesi che rimpiazza l'atteggiamento agnostico descritto sopra su cosa sia la fisica al di sotto di una certa scala (molto piccola) di lunghezze (o, se preferiamo, al di sopra di una scala molto alta di energie).

E' naturale chiedersi a questo punto perchè si debbano introdurre le corde se poi si ammette che esse devono avere un'estensione così esigua da non essere distinguibili da punti materiali. A parte i motivi più teorici già esposti, elencherò i seguenti:

1) La gravità esiste. Un teorico dei campi dovrebbe onestamente ammettere che, se la forza di gravità non fosse stata già osservata, niente lo avrebbe spinto ad introdurla, proprio perché non saprebbe come trattarla. Al contrario, tutte le teorie delle corde portano necessariamente a predire l'esistenza di interazioni sia di tipo gravitazionale che di tipo ``gauge" a la MS. E' interessante sottolineare che questo fatto segue dalla prima quantizzazione della (super)corda che implica, come effetto quantistico, l'esistenza di corde di massa nulla e di momento angolare 1/2, 1, 3/2 e 2 (in unità di  hbar). Quest'ultima, il gravitone, è la particella responsabile della forza di gravità

2) Interazioni di gauge non abeliane emergono naturalmente dalla teoria. Esistono comunque molte alternative quanto al gruppo di gauge selezionato dalle corde: quelle del MS o delle teorie grandi-unificate sono solo, al momento, delle possibili scelte.

3) Nel limite classico la forza gravitazionale si unifica alle altre alla scala Ms. Dato che le correzioni quantistiche sono finite e dello stesso ordine per tutte le interazioni, tale unificazione sopravvive al livello quantistico.

4) La teoria è priva di parametri arbitrari. Questa è una conseguenza aspettata data la finitezza della teoria e la sua grande simmetria (in gran parte ancora sotto studio). Le costanti della natura (quali la costante di struttura fine alfa =1/137 ) divengono parametri dinamici, indeterminati al livello classico ma probabilmente fissati al livello quantistico. Infatti la teoria prevede che, se le costanti fondamentali non sono fissate dalla dinamica, allora devono esistere ``quinte forze" a lungo raggio di intensità simile a quella della forza gravitazionale (ma mediate dallo scambio di una particella scalare). Tali forze a lungo raggio non sono state osservate, implicando che le particelle scalari che le mediano hanno massa finita.

5) Una di queste particelle scalari, il cosiddetto dilatone, è onnipresente e potrebbe aver giocato un ruolo importante in cosmologia nei primi istanti di vita dell'Universo (un nuovo modello del cosiddetto ``big bang").

Il problema principale che ancora affligge la teoria delle corde è proprio quello di scoprire la dinamica che determina il vero stato fondamentale della teoria e le sue proprietà A queste proprietàè legata non solo la natura del gruppo di simmetria interna che determina le forze non gravitazionali, le caratteristiche e il numero delle famiglie di fermioni che costituiscono la materia e il valore delle varie costanti di accoppiamento, ma anche il grande problema della costante cosmologica la cui esiguit\`a resta a tutt'oggi un mistero. E' possibile che la soluzione di un tale mistero sia nascosta nei meandri della gravità quantistica, così come dovrebbe esserlo quello della fase finale di evaporazione dei buchi neri che pone seri problemi concettuali nell'ambito della gravità tradizionale.

Senza avere ancora risposte a questi affascinanti quesiti, la teoria delle corde, al contrario della teoria dei campi, può permettersi almeno il lusso di formularli nell'ambito di uno schema privo di ovvie incongruenze.
 

tratto da: L'Italia al CERN. Le ragioni di un successo. Menzinger, F. Publisher INFN Laboratori Nazionali di Frascati 1995.