`"

Nobelprisen i Fysik 1999:
Renormalisation af ikke-abelsk gauge-teori

Benny Lautrup og Jens Lyng Petersen
Niels Bohr Institutet

Nobelprisen i fysik for 1999 blev den 12. oktober tildelt to hollandske fysikere, en lærer og hans elev, hvilket er en noget usædvanlig konstellation. Den yngre af parret, Gerardus 't Hooft (født 1946), er professor ved universitetet i Utrecht, medens hans tidligere vejleder, Martinus (``Tini'') J.G. Veltman (født 1931), er professor emeritus samme sted.

Med Nobelkomiteens ord fik de to forskere prisen for deres belysning af elektrosvage vekselvirkningers kvantestruktur. I større detalje hedder det, at

De to forskere har fået Nobelprisen for at have placeret partikelfysikken på et fastere matematisk grundlag. I særdeleshed har de vist, hvordan teorien kan anvendes til nøjagtige beregninger af fysiske størrelser. Eksperimenter ved acceleratorlaboratorier i Europa og USA har for nylig bekræftet mange af de forudberegnede resultater.
Prisen er bemærkelsesværdig ved at fokusere på et rent matematisk bidrag til fysikken. Nobelpristagernes arbejde udgør det tekniske grundlag for den moderne teori, som forener elektromagnetiske og svage vekselvirkninger. De viste, hvorledes teorier af denne karakter kunne renormaliseres, således at man blev i stand til at udføre præcise beregninger. Denne forenede elektrosvage teori, som i dag er en del af Standardmodellen, blev formuleret af Glashow, Weinberg og Salam i midten af 1960'erne, og disse 3 fysikere fik selv Nobelprisen i 1979.

Kvantefeltteori

Elementarpartikelfysikkens Standardmodel udgør en imponerende syntese af meget af det 19. og 20. århundreders fysik, elektromagnetisme, relativitetsteori, kvantemekanik og kernekræfter, herunder svage vekselvirkninger. Kombinationen af relativitetsteori og kvanteteori medfører, at stof og stråling vil optræde som elementarpartikler, der bedst kan beskrives som en slags ``knuder'' i udbredte kontinuerte felter. De gode gamle bølgefunktioner, der anvendes i den ikke-relativistiske kvantemekanik, kan ikke magte matematisk at beskrive den stadige dannelse og tilintetgørelse af partikler, som skyldes kvantefluktuationer i felterne, og erstattes af en langt mere kompliceret formalisme, kaldet kvantefeltteori.

En sådan kvantefeltteori, kvanteelektrodynamikken, for fotoners vekselvirkning med elektroner (og positroner) blev opstillet allerede omkring 1930. Men selv om man derigennem opnåede en formodet korrekt beskrivelse af alle strålingsprocesser, viste det sig hurtigt, at kvantefluktuationerne førte til meningsløse resultater, nemlig uendeligheder i form af divergente integraler.

I slutningen af 1940'erne viste Feynman, Schwinger og Tomonaga, at problemet kunne løses gennem en ny matematisk teknik, kaldet renormalisering, et arbejde de modtog Nobelprisen for i 1965. Løsningen blev starten til en fantastisk succes. Renormaliseringen gik kort sagt ud på at udtrykke teorien ved den faktisk målelige elektronmasse og -ladning, som inkluderer alle korrektioner fra kvantefluktuationerne, i stedet for de ``bare'' ukendte værdier for disse størrelser. Feynman, Schwinger og Tomonaga viste, at dette lille ``trick'' fjernede alle divergenserne.

Alle detaljer i atomspektre - inklusive de der skyldes kvantefluktuationer - kunne herefter beregnes med mange betydende cifre, og gennem årene, der fulgte, blev alle eksperimenter bekræftet af teorien. Sammenligningen mellem teori og eksperiment er ført ud i det ekstreme for elektronens anomale magnetiske moment, som i dag kan beregnes korrekt med 10 betydende cifre.

Det gav blod på tanden til noget lignende for de stærke og de svage kræfter. Begge typer vekselvirkninger forekommer i atomernes kerne. De stærke kræfter holder kernerne sammen imod protonernes elektrostatiske frastødning, medens de svage kræfter hovedsagelig kendes fra beta-henfald af kernepartikler. Det er disse kræfters svage styrke, der er årsagen til, at Solen brænder langsomt og roligt.

Frustrationer opstod imidlertid, fordi renormalisationsprogrammet ikke umiddelbart kunne gennemføres for disse kræfter. For de stærkes vedkommende var man endda i 1960'erne tilbøjelig til helt at opgive begrebet kvantefeltteori. Eksperimenter havde påvist en sværm af elementarpartikler, som man ikke anede, hvad man skulle stille op med.

Så meget mere betydningsfuldt oplevedes det gennembrud, der skete i begyndelsen af 1970'erne og førte til Standardmodellen. I denne udvikling var 't Hoofts og Veltmans arbejder helt centrale, og nøglebegrebet viste sig at være kvantefeltteorier, der i deres struktur var dybt beslægtede med kvantelektrodynamikken.

Gauge-teori

I Maxwell's elektromagnetisme forekommer der en klasse transformationer - kaldet gauge transformationer - af potentialerne, som ikke ændrer på de elektriske og magnetiske felter. Det er for eksempel velkendt, at man kan lægge en konstant til det elektrostatiske potential uden, at det påvirker det elektriske felt. Egentlige gauge-transformationer kan imidlertid være forskellige fra punkt til punkt i rum og tid.

I 1954 havde Yang and Mills vist, at der eksisterede teorier med meget mere generelle former for gauge-invarians end den, der kendes fra elektromagnetismen. Medens den elektromagnetiske gauge-invarians svarer til en abelsk Lie gruppe, så svarer Yang-Mills teorierne til ikke-abelske Lie grupper.

Uden at gennemgå de tekniske detaljer, skal det blot nævnes, at de stærke vekselvirkninger nu beskrives af en sådan ikke-abelsk gauge-teori baseret på gruppen SU(3), medens de svage og elektromagnetiske vekselvirkninger beskrives af den sammensatte gruppe U(1)ÄSU(2), hvor den første faktor er abelsk og den anden ikke-abelsk.

I det sidste tilfælde kommer der en yderligere indviklet, teknisk komplikation til, et spontant symmetribrud via den såkaldte Higgs-mekanisme. Men det er denne teori, der endelig blev forstået af den da 25 årige Phd student 't Hooft i 1971, efter at han havde fået en flyvende start af sin vejleder, Veltman, som i årevis havde bekymret sig om disse problemer.

Standardmodellen

Før 1971 brugte man Fermis teori for svage vekselvirkninger fra 1934, modificeret af Feynman og Gell-Mann i 1956. Den beskrev svage henfald udmærket, men gav kun mening i første tilnærmelse. Kvantekorrektionerne var igen divergente, men kunne ikke som i kvanteelektrodynamikken renormaliseres væk gennem en redefinition af teoriens parametre. Uendelighederne kunne ikke fjernes.

Den bedste fortolkning heraf er, at teorien er ufærdig. Mange tog det som tegn på, at der måtte findes tunge, ladede ``intermediære vektorbosoner", kaldet W±, som skulle bære de svage vekselvirkninger. Sådanne partikler kaldes vektorer, fordi de beskrives ved et vektorfelt med spin 1. Men utallige forsøg på at bygge renormaliserbare teorier for dem slog fejl. Yang-Mills-teorierne var attraktive og indeholdt godt nok ladede vektorbosoner, men de var dømt til at være masseløse, medens de svage kræfters korte rækkevidde fordrede, at de havde en ret så stor masse. Det er den tidligere omtalte gauge-invarians, som er en nødvendig del af Yang-Mills teorierne, som forbyder disse partikler at have masse.

Den skotske fysiker, Peter Higgs (og flere andre) opdagede midt i 1960'erne, at hvis teorien desuden indeholder skalarfelter, som beskriver partikler med spin 0, så kan der opstå et såkaldt spontant brud på gauge-symmetrien, som tillader, at vektorbosonerne får en masse. Weinberg formodede i 1967, da han opstillede sit detaljerede forslag til Standardmodellen, at den kunne være renormaliserbar, men han var aldeles ikke i stand til at bevise det, og kunne derfor heller ikke angive, hvordan praktiske beregninger skulle udføres.

Renormalisering

Da renormaliseringsproceduren blev fremlagt lige før 1950, var det en stor sejr for teoretikerne, men alligevel fremstod den ret utilfredsstillende. Den indeholdt divergente integraler, som man hævdede at kunne ``skjule'' i mellemregninger, så de aldrig optrådte i slutresultater, der direkte skulle sammenlignes med eksperimenter. Det virkede på overfladen perfekt, men de fleste havde dog en lidt ubehagelig følelse af, at noget var fejet ind under gulvtæppet. Spørgsmålet om det elektromagnetiske bidrag til elektronens masse og ladning forblev jo ubesvaret.

I begyndelsen af 1970'erne viste Ken Wilson, at det var muligt at få en dybere forståelse af renormalisationsproceduren. Wilson modtog i øvrigt selv Nobelprisen i 1982 for udløbere af dette arbejde.

De matematiske vanskeligheder i en renormaliserbar teori skyldes kvantefluktuationer og optræder typisk som logaritmisk divergente integraler af formen
g2 ó
õ
¥

M 
 dp

p
=g2log æ
è
 ¥

M
ö
ø
Integrationsvariablen står her for en partikels impuls eller energi , M er en karakteristisk masseskala, for eksempel elektronmassen, og g er en koblingskonstant af samme karakter som elektronens ladning e.

Resultatet uendelig (¥) er naturligvis noget matematisk sludder. For at gøre teorien matematisk meningsfuld er det nødvendigt først at regularisere, således at alle integraler bliver endelige. Regularisering kan ske på mange forskellige måder. Et af 't Hooft og Veltman's bidrag var at regularisere gennem en analytisk fortsættelse af teorien til komplekse værdier af rumtids-dimensionen. Divergenserne fremkommer da kun i grænsen, når dimensionen går mod 4.

Her skal vi simpelthen systematisk fjerne alle impulser og energier over en vis størrelse L fra teorien, således at integralet i stedet bliver
g2 ó
õ
L

M 
 dp

p
=g2log æ
è
 L

M
ö
ø
Uanset hvilken afskæringsprocedure, der benyttes, vil det forandre teorien og effektivt indføre nye vekselvirkninger. Men når den oprindelige teori er renormaliserbar, og kun da, vil de nye vekselvirkninger være af samme form som i den oprindelige teori. I ikke-renormaliserbare teorier vil afskæringsproceduren derimod indføre effektive vekselvirkninger af helt andre former.

Især Wilson's arbejder viste, at det var muligt at gøre teorien uafhængig af afskæringsparameteren L ved at lade koblingskonstanterne afhænge af L, altså g=g(L). I ledende approksimationsorden viste den nødvendige afhængighed sig at være
g2(L) µ 1/log(L)
og dette gør da netop også ovenstående udtryk endeligt. Gennem omhyggelige undersøgelser eftervistes det, at L-afhængigheden - i hvert fald i ikke-abelske gauge-teorier - kunne bestemmes til vilkårlig høj orden. Med et sådant valg af koblingskonstanter bliver alle teoriens fysiske forudsigelser endelige og uafhængige af valget af L i grænsen L®¥.

Yang-Mills teorier

For at forstå, hvorledes Yang-Mills teorier afviger fra abelske teorier som kvanteelektrodynamikken, kan man først og fremmest se på, hvilke felter og ladninger, der optræder.

I kvantelektrodynamikken er der kun én type partikel, elektronen, og ét felt, det elektromagnetiske felt, svarende til fotonen g. I den simpleste Yang-Mills teori, som benyttes i Glashow-Salam-Weinberg modellen, vil der være to typer partikler, elektron og neutrino, og tilsvarende fire slags felter, der kan koble til ladningerne og omdanne elektron til elektron, elektron til neutrino, neutrino til elektron og neutrino til neutrino.

Disse fire elektromagnetisk-agtige felter svarer til fire partikler, den velkendte foton g, samt de ladede vektorbosoner W+,W- og den uladede vektorboson Z0. Nogle af felterne har som det ses ladninger og kobler derfor til sig selv, hvilket gør sådanne teorier langt mere indviklede end kvanteelektrodynamikken.

Der er en dyb analogi mellem gauge-teorier og differentialgeometri. Gauge-teoriers frihedsgrader er til dels ``geometriske", ikke numeriske, selv om vi i praksis selvfølgelig ønsker at bruge tal til beregninger.

For at forstå dette kan man betragte et geometrisk objekt, for eksempel en bjergkæde, Alperne, som er vores analogi til en bestemt feltkonfiguration. Landmålere beskriver Alperne ved at kaste et koordinatnet ud over bjergene og angive bunker af tal for koordinatmaskernes placering og bjerghøjden i hver maske. En anden gruppe landmålere ville nok benytte et helt andet
Er dette helt korrekt?
koordinatnet - og derfor helt andre tal - til beskrivelse af et og samme geometriske objekt! Det er denne frihed i valget af koordinatsystem, som kaldes gauge-frihed1.

Det præcise, matematiske udtryk for friheden styres af en bestemt gauge-symmetri, en Lie-gruppe, der netop kan være abelsk eller ikke-abelsk. Selv om det fysiske indhold i en gauge-teori kun afhænger af ``geometrien'', så er det nødvendigt i praksis at foretage at specielt valg af gauge, et bestemt ``koordinatsystem''. I kvanteelektrodynamikken og især i Yang-Mills teorierne, medfører det, at der indføres nye kunstige hjælpefelter og dertil svarende vekselvirkninger. Hjælpefelterne optræder kun i mellemregninger og forsvinder i slutresultatet. Ikke desto mindre betyder det, at mellemresultater kan blive meget komplicerede og afhænger vildt af det gauge-valg, man har foretaget.

Higgs-mekanismen

I Standardmodellen er der udover elektroner, neutrinoer og deres antipartikler samt de fire gauge-bosoner, også fire Higgs-felter, der formelt svarer til fire spin-0 partikler og betegnes med f0,[`(f)]0,f+ og f-.

Normalt er felter nul i rummets laveste energitilstand, vakuum. Men i Standardmodellen er Higgs-felternes vekselvirkning valgt, således at en kombination af f0 og [`(f)]0 er forskellig fra nul i vakuum. Vakuum er altså et kondensat af Higgs-partikler og kombineret med gauge-friheden bevirker dette, at tre af Higgs-felterne opsuges af W± og Z0 felterne og derved tildeler disse en masse forskellig fra nul, medens fotonen forbliver masseløs.

Der resterer altså kun én fri komponent af Higgs-feltet, og det er den berømte og eksperimentelt stærkt efterstræbte Higgs-partikel, som endnu ikke er fundet.

Nobelpristagernes indsats

Det er forhåbentlig blevet klart, at de principielt ganske smukke Yang-Mills-teorier udsættes for voldsomme matematiske skamferinger, når man både skal vælge en gauge og indføre et vakuum-kondensat, og oveni skære divergenserne af.

Årets Nobelpristagere indførte en lang række virtuose matematiske tricks, der tillod dem at behandle disse komplikationer langt mere elegant end tidligere. På et vist tidspunkt kunne de for eksempel bevise teoriens renormaliserbarhed for et bestemt gauge-valg, men det var uklart om denne formulering af teorien tillod en sædvanlig kvantemekanisk sandsynligheds-fortolkning.

I en anden gauge var denne fortolkning temmelig klar, men ikke renormaliserbarheden. Det blev derfor vigtigt at forstå, hvordan mellemregninger afhænger af gauge-valget, specielt at verificere, at de fysiske størrelser, som forekommer i slutresultatet, ikke gør det. I formalismen udtrykkes dette gennem en række relationer, kaldet Ward-identiteter, som bruges ved transformation mellem forskellige gauger.

Et nyttigt værktøj til at holde styr på denne enormt komplicerede formalisme var et computerprogram, kaldet SCHOONSHIP, som var i stand til at udføre symbolske beregninger. Programmet blev egenhændigt udviklet af Veltman i 1960'erne og var netop i begyndelsen af 1970'erne blevet så stabilt, at en del forskere begyndte at stole på det som en støtte til deres beregninger. Programmet har været normdannende for en del senere programmer af denne art, heriblandt det berømte Mathematica.

Et andet uhyre nyttigt værktøj viste sig at være udviklingen af den ovennævnte særdeles bekvemme afskæringsmetode, kaldet dimensional regularisering. De to prismodtagere indførte en præcis matematisk teknik til beregning af de indgående integraler for ikke-heltallige værdier af rum-tid-dimensionen. Denne teknik respekterer i modsætning til tidligere kendte afskæringsmetoder både Lorentz-invarians og gauge-invarians og er i dag en standardmetode, som indgår i samtlige nyere lærebøger om kvantefeltteori.

Konkrete resultater

Takket være 't Hooft og Veltman blev hele Standardmodellen udstyret med en art sundhedsattest. Det gælder ikke alene for den elektrosvage Glashow-Salam-Weinberg model, men også for kvantekromodynamikken.

I den elektrosvage teori stemmer de fleste resultater forbavsende godt med den simpleste tilnærmelse. En af de største succeser er forudsigelsen af Z0-partiklen med en masse på 91,19 GeV og en totalbredde på 2,50 GeV. I LEP acceleratoren ved CERN er denne partikel masseproduceret gennem snart ti år. Præcisionsmålinger er udført på mere end tyve forskellige størrelser og sammenlignet med teorien. Beregnes f.eks. partialbredden for Z0 henfald til stærkt vekselvirkende partikler, hadroner, fås i første tilnærmelse værdien 1,66 GeV, sammenlignet med den eksperimentelle værdi på 1,743 ±0,002 GeV.

De kvantekorrektioner, som 't Hooft og Veltman har lært os at beregne, korrigerer resultater til perfekt overensstemmelse med data. Men alle disse korrektioner afhænger af kvarkmasser, specielt af den indtil 1995 ukendte top-masse. Desuden afhænger de en smule af Higgs-massen. Det er i sig selv en triumf, at man overhovedet kan få tyve eller flere resultater til at passe med blot én ubekendt, nemlig top-massen (kombineret med et rimeligt gæt på Higgs-massen). Det er desuden en triumf, at top-massen forlanges at skulle være 173 ± 7 GeV, og at de seneste målinger giver 175 ± 5 GeV.

Som nævnt har 't Hoofts og Veltmans arbejder også betydet uhyre meget for udviklingen af kvantekromodynamikken. Denne efterhånden velefterprøvede teori har dog endnu ikke udløst en Nobelpris. En af grundene kan have været, at 't Hooft i 1972 ved et lille møde i Marseille kundgjorde, at han havde opnået et meget betydningsfuldt resultat for denne teori. Han blev stærkt opfordret til at offentliggøre det, men undlod alligevel at publicere det med det samme. Andre opnåede hurtigt derefter det samme resultat og publicerede deres beregninger. Denne uklarhed i prioriteten har skabt en lidt prekær situation, som måske nu er blevet bragt af vejen. Den næste Nobelpris i teoretisk højenergifysik kan meget vel blive givet for kvantekromodynamikken.

Jens Olaf: du må gerne lægge en henvisning ind til

http://www.nobel.se/announcement99/physics99.html

Check lige, at den stadig virker.


Footnotes:

1Ordet `gauge', som udtales gæjtsj har forskellige betydninger på engelsk, heriblandt `kalibrering', `instrumentviser' og `spor-vidde'


File translated from TEX by TTH, version 3.00.
On 1 Dec 2002, 20:17.