Mangels eines ausführlichen FAQ-Artikels zum aktuellen Wissensstand, welcher das Standardmodell der Elementarteilchen und die Allgemeine Relativitätstheorie umfaßt, einige aktuelle Diskussionen aus news:de.sci.physik  (vor allem von Norbert Dragon und Hendrik van Hees):

 

Die Meldung über die Entdeckung des Higgs-Bosons verursachte eine umfangreiche Diskussion:

 

Hendrik van Hees Phone:  ++49 6159 71-2751
c/o GSI-Darmstadt SB3 3.183 Fax:    ++49 6159 71-2990
Planckstr. 1 mailto:h.vanhees@gsi.de
D-64291 Darmstadt http://theory.gsi.de/~vanhees/index.html:

ab 09.9.2000:

TomSSchulte wrote:
>
> Hi Leute,
> mein Name ist Tom Schulte und ich bin Schüler der Klasse 11. Beim Newsticker
> von Bild der Wissenschaft (ww.bdw.de und dann links auf News-Ticker klicken)
> habe ich gelesen, daß das Higgs-Boson entdeckt wurde. Was sagt ihr dazu? Was
> kann man mit dieser Erkenntnis nun machen? Ich dachte nur so, man könnte
> Higgs-Bosonen abschirmen und dann mit einem Schiff ohne Masse auf
> Überlichtgeschwindigkeit gehen. Wäre das möglich? Ich wüßte gerne mal, was
> ihr dazu meint. Beteiligt euch doch an der Diskussion. Ich warte auf eure
> Antworten.

Na ja, also dass das Higgs-Boson entdeckt wurde ist doch eine sehr
verkuerzte Darstellung.

Der Punkt ist, dass das Higgs-Boson eine reine Annahme ist, die auf rein
theoretischen Ueberlegungen beruht. U.a. dafuer gab es den letzten
Physik-Nobelpreis von 1999 an 't Hooft und Veltman.

Zusammengefasst fuehren diese physikalisch-theoretischen Ueberlegungen
zum sog. Standardmodell der Elementarteilchen. Es handelt sich dabei um
eine Quantenfeldtheorie. Das ist relativ schwer zu beschreiben. Ich
versuche mal, die Sache historisch aufzuziehen, ohne auf die
komplizierte Mathematik einzugehen.

Die Idee dieser Quantenfeldtheorien ist zunaechst, dass man versucht hat
(so um 1930 herum insbesondere Heisenberg und Pauli), die spezielle
Relativitaetstheorie (Einstein 1905) mit der bis heute gueltigen
modernen Form der Quantentheorie (Heisenberg 1925, Schroedinger, Dirac
1926) in Uebereinklang zu bringen. Damals versuchte man die scheinbar
einfachste Wechselwirkung, die man auch am besten kannte, naemlich die
Elektrodynamik, die ja von Anfang (Maxwell um 1860) an eine
relativistische Theorie war, ohne dass man sich dessen bewusst war, zu
quantisieren.

Die grundlegend neue Idee der Maxwelltheorie war der Feldbegriff, den
Faraday rein experimentell und ohne Mathematik so genau beschrieben hat,
dass Maxwell sich nur noch hinsetzen musste, und die Faradayschen
Ueberlegungen in Mathematik zu formulieren, so dass quantitative
Aussagen moeglich wurden. Die Idee des Feldbegriffes ist, dass Kraefte
nicht einfach so ueber einen Raum hinweg instantan wirken, so wie Newton
das fuer die Gravitation angenommen hatte, sondern dass vielmehr die
Kraftwirkungen auf Koerper darauf beruhen, dass es im Raum ausgedehnte
sich in der Zeit ausbreitende physikalische Objekte gibt, die man Felder
nennt. In der Relativitaetstheorie kann es auch gar nicht anders sein,
denn wenn ein Objekt eine Kraft auf ein anderes Objekt ausuebt (z.B.
geladene Kuegelchen), braucht es ja Zeit, bis die Wirkung des einen
Objekts beim anderen ankommt. Das stellt man sich nach der
Quantentheorie so vor, dass ein Feld von dem Objekt ausgeht und von dem
anderen Objekt nach einer endlichen Laufzeit (hoechstens
Lichtgeschwindigkeit) wieder absorbiert wird. Je nach Art dieses
Vorganges ist die Kraftwirkung anziehend oder abstossend.

In der Quantenfeldtheorie ist es nun so, dass dieses Feld in Quanten
(Portionen) daherkommt und man sich diese Wechselwirkung durch Emission
und Absorption von Quanten dieses Feldes vorstellen kann. Das sind die
sog. virtuellen Quanten, die im Fall des em. Feldes Photonen heissen. Es
kann natuerlich auch passieren, dass solche Photonen frei vorkommen und
beobachtet werden koennen (als kleine Lichtblitze auf einem
Szintillationsschirm z.B.). Das sind dann die sog. reellen Photonen. Man
kann sich uebrigens auch eine klassische elektromagnetische Welle (z.B.
von einem Radiosender oder Laser) als eine komplizierte Ueberlagerung
von Photonen vorstellen (fuer die Experten: als sog. coherent states).

Weitere Analysen haben gezeigt, dass der QED Symmetrien zugrundeliegen.
Emmy Noether hat schon 1918 gezeigt, dass jeder Erhaltungssatz der
Physik eine Symmetrie der zugrundeliegenden Gleichungen entspricht. Der
Energiesatz in der Mechanik z.B. laesst sich so auf die Gleichartigkeit
der Naturgesetze zu jeder Zeit zurueckfuehren, die sog. zeitliche
Translationsinvarianz.

Dazu gibt es eine Superwebseite von Leon Ledermann (Nobelpreis fuer die
Entdeckung des Myonneutrinos):

http://www.emmynoether.com/

Aus dieser Symmetrie laesst sich die QED vollstaendig rekonstruieren
(wenn man noch ein bissche Wissen ueber die Natur der geladenen Teilchen
hineinsteckt, z.B. die Elektronen, z.B. dass sie Spin 1/2 haben und eine
Elementarladung tragen).

Man hat aber bald gemerkt, dass diese QED auch ihre Tuecken hat. Wollte
man naemlich Vorgaenge ausrechnen, wie z.B. den, dass ein Elektron ein
(virtuelles) Photon aussendet und dasselbe Elektron das Photon wieder
einfaengt (die sog. Selbstenergie des Elektrons), kam heraus, dass die
dabei auftretenden Integrale divergieren. Heutzutage stellt man das
alles in den sehr anschaulichen Feynmandiagrammen dar, die Du auf den
Webseiten, die in der Linkliste der FAQ aufgefuehrt sind, erklaert
bekommst, z.B. vom DESY

 http://www.desy.de/pr-info/Kworkquark/

Diese Unendlichkeiten haben die Physiker lange Zeit beschaeftigt und
schliesslich nach dem 2. Weltkrieg zur Entwicklung der modernen
Renormierungstheorie gefuehrt (Dyson, Schwinger, Tomonaga, Feynman
1948). Davon muss man nur so viel verstehen, aber das ist insbesondere
fuer das Higgsboson entscheidend, dass es eine relativ kleine Anzahl von
Theorien gibt, bei denen man die Unendlichkeiten eindeutig und
physikalisch interpretierbar in unbeobachtbare Groessen stecken kann,
indem man eine bestimmte endliche Zahl von Naturkonstanten festlegt. Das
sind die Massen der beteiligten Elementarteilchen und die
Kopplungskonstanten (Ladungen), die die Staerke der Wechselwirkungen
beschreiben. Solche Theorien nennt man renormierbar.

Wieder hat es aufgrund der Kompliziertheit all dieser Mathematik recht
lange gedauert, bis man diese Theorien genau klassifizieren konnte
(Bogoliubov, Parasiuk, Hepp und Zimmermann Mitte der 50er bis Ende der
60er Jahre bis alles komplett war!).

Man wusste nun bald, dass es nicht nur die elektromagnetische
Wechselwirkung gab, sondern auch noch zwei andere, naemlich die starke
und die schwache Wechselwirkung (die Gravitation vergessen wir hier
komplett, weil sie nur Aerger macht, und fuer das Higgsboson nicht
entscheidend ist). Die starke Wechselwirkung ist eine eigene Geschichte
und die wollen wir auch auslassen.

Die schwache Wechselwirkung ist u.a. fuer den Betazerfall
verantwortlich, wobei ein Atomkern ein Elektron aussendet, wobei ein in
ihm enthaltenes Neutron in ein Proton umgewandelt wird. Dabei wird, so
hatte Pauli schon (ca. 1930) geargwoehnt, ein weiteres sehr leichtes
Teilchen, das wir heute Antielektronneutrino nennen, frei wird.


Diese schwache Wechselwirkung wurde bald durch Fermi in einem Modell
erklaert, das aehnlich wie die QED funktionierte, aber insofern
einfacher war, dass einfach vier Fermionen wechselwirkten (1934),
naemlich Neutron, Proton, Elektron und Antielektronneutrino. Spaeter
wurde noch ein bisschen an dem Modell herumgebastelt. Besonders wichtig
war die Entdeckung von T.D. Lee und C. N. Yang 1956, dass die schwache
Wechselwirkung die Paritaet verletzte. Bis dahin glaubte man, dass alle
Wechselwirkungen spiegelsymmetrisch sind, d.h. wenn ich einen Vorgang
mit Elementarteilchen im Spiegel angucke, entspricht dies wieder einem
moeglichen Vorgang, der von denselben Gesetzen beschrieben wird. Wu
konnte im selben Jahr nachweisen, dass beim Betazerfall von Cobalt 60
nur linkshaendige Neutrinos frei werden. Das heisst, dass der Spin immer
antiparallel zum Impuls gerichtet ist.

Mittlerweile war man sich aber auch der Bedeutung der Renormierbarkeit
klar geworden, wie ich oben schon erzaehlt habe, und die Fermitheorie
bzw. ihre Verfeinerung war nicht renormierbar. Jetzt waren aber Yang und
Mills (auch 1956) auf die Idee gekommen, die mathematische Struktur der
QED auf allgemeinere Faelle zu erweitern. Das ist eine der wichtigsten
Ideen fuer die moderne Physik ueberhaupt. Die Idee ist, dass manchmal
verschiedene Teilchen zusammengefasst beschrieben werden koennen, indem
man sie nur als verschiedene Erscheinungsformen ein und desselben
Teilchens deutet. Das passiert dann mathematisch ganz aehnlich wie bei
den Einheitsvektoren des Raumes, die man alle aus einem einzigen
Einheitsvektor durch Drehung gewinnen kann. Die Drehungen bilden eine
sog. Gruppe, d.h. zwei Drehungen bilden nacheinander ausgefuehrt wieder
eine Drehung, jede Drehung kann ich durch eine entsprechende
Gegendrehung wieder rueckgaengig machen, und natuerlich ist auch die
Operation, die gar nix mit einem Vektor macht eine Drehung (eine um 0
Grad ;-)). Jetzt betrachtet man aber nicht nur den Raum in dieser
geometrischen Weise, sondern die Ladungen der Teilchen.

Am naechsten dieser Betrachtung kommen die Pionen, von denen es drei
Stueck gibt, naemlich ein elektrisch positiv geladenes, ein neutrales
und negativ geladenes. Die haben alle ungefaehr die gleiche Masse. Diese
Symmetrie ermoeglicht es uns nun, diese drei Teilchen zu einem Triplett
zusammenzufassen und durch Vektoren in einem dreidimensionalen
Ladungsraum zu beschreiben. Das ist der sog. Isospin. Diese Drehgruppe,
die im Ladungsraum der Pionen operiert, heisst Isospingruppe und wurde
von Heisenberg zuerst verwendet um die Neutronen und Protonen als
Duplett zu beschreiben. Der Punkt ist, dass die starke Wechselwirkung
blind ist gegen die Richtung des Isospins, d.h. sie macht keinen
Unterschied zwischen den Mitgliedern eines Isospinensembles von
Teilchen.

Es ist aber deshalb auch blosse Uebereinkunft, welchen Vektor im
Isospinraum, wir z.B. einem positiv geladenen Pion zuordnen. Also liegt
es nahe zu fragen, ob man die Wechselwirkungen nicht auch so basteln
kann, dass ein Physiker in New York seinen Vektor anders waehlt als
einer in Hamburg usw. Diese Idee fuehrt dann dazu, dass es masselose
(!!!) Vektorteilchen geben muss, die aehnlich sind wie die Photonen der
QED. Bei der QED ist die "Isospingruppe" aber einfacher, man nennt sie
aber nicht Isospingruppe in dem Fall, naemlich die Drehung in der Ebene,
und die Teilchen, auf denen sie wirkt sind geladene Teilchen, die durch
komplexe Felder beschrieben werden und die QED ist invariant unter
Multiplikation dieser Felder mit komplexen Zahlen vom Betrag eins, die
bzgl. der Multiplikation eine Gruppe bilden, wo die Gruppenoperationen
vertauschen, was genau dieselbe Gruppe ist, mit der man auch Drehungen
in der Ebene beschreibt. Im Raum sind Drehungen in verschiedene
Richtungen hingegen nicht vertauschbar, was man mit einem beliebigen
Gegenstand schnell einsieht. Wegen dieser Nichtvertauschbarkeit der
Drehungen wechselwirken die Eichbosonen selber miteinander, was die
Photonen nicht tun.

Das war eine Theorie, die einfach zu schoen war um falsch zu sein. Das
Dumme war nur sie passte ueberhaupt nicht zu den Resultaten ueber die
starke Wechselwirkung! Man wusste damals nicht, ob sie ueberhaupt zu
irgendwas gut war. Also vergass man das ganze wieder. Das staerkste
Argument gegen die Theorie war, dass man die vorhergesagten masselosen
Vektorteilchen nie zu Gesicht bekommen hatte, und das haette man, weil
masselose Teilchen sehr leicht erzeugt werden, man braucht praktisch
keine Energie um sie zu erzeugen, weil sie ja masselos sind!

Spaeter kam dann Higgs (nach dem das Higgsboson benannt ist) auf eine
andere Idee. Es kann naemlich passieren, dass eine Gleichung sehr wohl
unter irgendeiner Gruppenwirkung symmetrisch ist, aber dass die
Loesungen dieser Gleichung das keineswegs sein muessen. Wenn der
energetisch niedrigste Zustand nicht die Symmetrie zeigt, die den
Gleichungen zugrundeliegen, spricht man von spontaner Symmetriebrechung.
Das beste und immer wieder angefuehrte Beispiel ist ein Ferromagnet. Die
Naturgesetze, die der Beschreibung des permanenten Magnetismus, naemlich
die Elektrodynamik, sind vollkommen symmetrisch unter Raumdrehungen.
Fuer einen Ferromagneten ist es aber guenstiger, wenn sich die Atome so
ausrichten, dass die Spins alle in eine Richtung zeigen, so dass das
Magnetfeld eine Richtung auszeichnet und wir es in Form der normalen
Stabmagneten leicht angucken koennen.

In der Quantenfeldtheorie hat eine solche sog. spontane
Symmetriebrechung zur Folge, dass zwar die Erhaltungssaetze, die dieser
Symmetrie nach Noether entsprechen, immer noch gelten, aber dass die
Symmetrie versteckt ist. Allerdings kann man bei einer globalen
Symmetrie (also eine, wodie Symmetrietransformationen immer und ueberall
auf alle Felder gleich sien muss) folgern, dass es dann eine aus der
Mathematik der gebrochenen Gruppe folgende Zahl von verschiedenen
masselosen Teilchen, die sog. Nambu-Goldstone-Bosonen geben muss.

Was war aber los, wenn eine Eichsymmetrie, wie Yang und Mills sie
untersucht haben, spontan gebrochen war? Genau das hatte Higgs in den
spaeten 60er Jahren untersucht! Es stellte sich heraus, dass dann keine
Goldstonebosonen auftreten und stattdessen die Eichfelder (die
Vektorbosonen) Masse bekommen. Die Felder, die bei Brechung der
entsprechenden globalen Symmetrie Goldstonebosonen entsprechen, liefern
den Eichbosonen den dazu benoetigten zusaetzlichen Freiheitsgrad.
Masselose Vektorteilchen, wie die Photonen, haben naemlich nur zwei
unabhaengige Polarisationsrichtungen (wie die elektromagnetischen
Wellen, deren Quanten sie ja sind), massive Vekorteilchen hingegen drei.

Auf die Art konnte man also den Vektorbosonen von Yang und Mills, die ja
masselos sein mussten, wenn sie aus der lokalen Symmetrie (freie Wahl
der Isospinrichtungen, wenn man von einem Ort zum anderen geht und auch
in der Zeit darf die Wahl geaenert werden!) hervorgehen sollen und die
Theorie Erhaltung der entsprechenden Ladungen zeigen soll.

Dann kamen die wichtigen Arbeiten von 't Hooft und Veltman, die zeigten,
dass Yangs und Mills Eichtheorie renormierbar war. Veltman konnte weiter
beweisen, dass auch Theorien mit massiven Vektorteilchen, renormierbar
war, aber (und jetzt kommen wir endlich zum Punkt mit dem Higgsboson!)
nur wenn sie ihre Masse von Higgs spontaner Symmetriebrechung der
Eichsymmetrie herkommt. Schreibt man einfach von Hand eine Masse vor,
geht die Symmetrie und mit ihr die Renormierbarkeit floeten!

Die Idee von Glashow, Salam und Weinberg war jetzt, dass die
Punktwechselwirkung von Fermis Theorie des Betazerfalls eigentlich durch
Austausch von Vektorteilchen (wie bei der QED die Photonen) verursacht
wird, d.h. der Punkt war in Wirklichkeit gar keiner, aber die
Vektorteilchen sollten nach dem Higgsmechanismus Masse kriegen, so dass
man sie fuer kleine Energien (wie sie beim Betazerfall i.a. auftreten)
gar nicht wahrnimmt. Dies erklaert auch, warum man diese sog.
intermediaeren Vektorbosonen noch nie gesehen hatte, sie waren einfach
so massiv, dass man sie nicht erzeugt hatte, und sie komme nnicht frei
in der Natur vor, weil sie schnell zu leichteren Teilchen zerfallen.

Der Theorie zufolge sollte es drei Vektorbosonen (zwei geladene
W-Bosonen und ein neutrales Z-Boson) geben, und mittlerweile hatte man
die Hadronen (die die starke Wechselwirkung spueren) als zusammengesetzt
aus Quarks erkannt. Kurz und gut in Glashow, Salam und Weinbergs Theorie
wechselwirkten die Quarks und Leptonen ueber die W- und Z-Bosonen sowie
die Photonen. Die W- und Z-Bosonen bekamen ihre Masse aber durch
spontane Symmetriebrechung, und das kriegt man nicht hin, ohne
wenigstens ein zusaetzliches skalares Teilchen in Kauf zu nehmen, das
ist das beruehmte Higgsboson. Man hat natuerlich alle bekannten
Tatsachen gleich miteingebaut, aber das wuerde jetzt wirklich zu weit
fuehren.

Das Standardmodell (das natuerlich auch die starke Wechselwirkung
beinhaltet, die ich vielleicht spaeter auch noch erklaeren kann, wenn's
interessant genug ist ;-)) hat eine Menge Vorhersagen gemacht, die bis
jetzt alle nachgewiesen werden konnten: 1984 entdeckte man beim CERN
tatsaechlich die W- und vor allem auch die ungeladenen Z-Bosonen
(Rubbia, van der Meer et al). Kuerzlich wurde am Fermilab das letzte
fehlende Neutrino entdeckt (das Tauneutrino). Nur das Higgs hat seine
Existenz bisher standhaft verbergen koennen, obwohl man dieses wichtige
Teilchen natuerlich fieberhaft an allen Beschleunigern gesucht hat, die
dazu in der Lage sein moegen.

Jetzt kommt aber der Punkt, und ich muss zugeben, dass ich da nicht ganz
frei von persoenlichen Meinungen bin. Es ist naemlich so, dass die
Beschleuniger zum groessten Teil ausgereizt sind. Das Standardmodell ist
so gut, dass es immer genauer bestaetigt wurde (u.a. auch die Theorie
der starken Wechselwirkung am DESY in Hamburg). Es gibt keinerlei
Hinweise, wie wir die Probleme loesen koennen, die ich hier erst mal
uebergangen habe, und was man braucht sind Beschleuniger mit noch
hoeherer Energie, um z.B. u.a. auch dem Higgsteilchen naeher auf den
Pelz zu ruecken. Hoehere Teilchenenergie bedeutet naemlich nach der
Quantentheorie, dass man immer kleinere Strukturen aufloesen kann und
man kann natuerlich auch Teilchen mit Masse nur erzeugen, wenn man die
Energie dafuer aufbringen kann. Man muss die Teilchen auch nicht nur
erzeugen, sondern sie auch zweifelsfrei nachweisen, und das Higgs ist
ein sehr fluechtiges Teilchen, so dass man eine Menge von ihnen erzeugen
muss um ausreichend Statistik zu haben, um es aus seinen
Zerfallsprodukten zu identifizieren.

Was nun diese Wochen durch die News dieser Welt flatterte (wohlgemerkt
nur in den Nachrichten, _nicht_ in wissenschaftlichen Fachzeitschriften,
es wurde noch nicht einmal der Versuch gemacht, das bei einer solchen
anzubringen), ist die Angabe einer Arbeitsgruppe beim CERN, dass sie
einige "Events" beobachtet haben, die sehr wohl solche Produktion und
Zerfaelle von Higgsteilchen darstellen koennten, allein es fehlt die
noetige Statistik um dies zweifelsfrei und mit der noetigen
statistischen Signifikanz zu bestaetigen.

Der Punkt ist, dass mit dem Bau des Large Hadron Collider (LHC) beim
CERN angefangen werden muss, und dazu muss man die Experimente
abstellen. Der LHC wird uebrigens in einem laengeren Artikel im neuesten
Spektrumheft beschrieben (den ich aber auch noch lesen muss ;-)). Der
LHC soll mit noch nie dagewesener Energie Hadronen aufeinanderschiessen.
Unter anderem ist man sich ziemlich sicher, mit diesem Ausbau von CERNs
Beschleunigern das Higgsteilchen zu finden, wenn sich nicht eine
Ueberraschung ereignet und ein voellig neues Bild auftut (das sind die
Teilchenphysiker mittlerweile gewoehnt, denn die Historie ist voll von
solchen Ueberraschungen).

Der LHC ist aber auch aus einem anderen Grund sehr wichtig. Es ist
naemlich so, dass mit diesem Beschleuniger die Ereignisse ganz kurz nach
dem Urknall im Miniformat und im Labor unter kontrollierten Bedingungen
untersucht werden koennen. Wenn man naemlich Atomkerne
aufeinanderschiesst und das bei genuegend hoher Energie macht, erwartet
man, dass in dem dabei entstehenden heissen Feuerball die Protonen und
Neutronen und die uebrigen bei dem Zusammestoss erzeugten Hadronen
bestehen, zu einer einzigen Suppe verschmelzen, in der die Quarks und
Gluonen, aus denen sie bestehen, nicht mehr wissen, zu wem sie gehoeren.
Es schwirren also ploetzlich die Quarks und Gluonen in dieser Suppe frei
herum! Dieses sog. Quarkgluon-Plasma nachzuweisen und seine
Eigenschaften genau zu studieren ist entscheidend fuer das Verstaendnis
der Vorgaenge im fruehen Universum und zugleich fuer das Verstaendnis
der starken Wechselwirkung, ueber die ich so wenig erzaehlt habe.

Man kann ja verstehen, dass die Wissenschaftler ihren alten
Beschleuniger (den LEP) noch weiter benutzen wollen und das Higgsboson
zweifelsfrei nachweisen wollen. Das waere natuerlich auch super fuer
CERN, wuerde es doch den kroenenden Abschluss einer langen erfolgreichen
Arbeit bedeuten. Andererseits ist diese ewige Zoegerei mit dem Bau neuer
von der internationalen Wissenschaftlergemeinschaft finanziell
getragenen Beschleuniger mehr als aergerlich. Die Teilchenphsyik koennte
schon wieder viel weiter sein, wenn man nicht den Bau des SSC in Texas
aufgegeben haette, und so weit sollte es mit dem LHC hoffentlich nicht
kommen. Es waere natuerlich auch wuenschenswert, wenn auch noch TESLA
beim DESY (ein neuer Leptonenbeschleuniger, der ein wunderbares Pendant
zum LHC waere) und last but not least auch noch der Ausbau der GSI
erfolgen wuerde.

Ich hoffe, dass Maiani (Chef vom CERN) da einen sinnvollen Kompromiss
findet, und der Aufbau des LHC (first run ist fuer 2005-2007 geplant,
aber dann muss auch alles gut gehen!) nicht allzusehr verzoegert wird.
Andererseits braucht das Datensammeln bei so seltenen Ereignissen wie
den zum Nachweis des Higgs nachzuweisenden naturgemaess auch Zeit, zumal
eine Menge Untergrund die Suche nicht eben erleichtert.
--
 

Tobias Fritz wrote:
>
> Hallo Leute,
> ich habe heute in der Zeitung gelesen, dass am Cern angeblich das
> theoretisch vorhergesagte Higgs-Teilchen experimentell nachgewiesen
> wurde. Das Higgs verleiht den anderen Elementarteilchen ihre Masse; wie
> hat man sich das vorzustellen? Ist es ähnlich wie bei der EM-Masse, die
> durch die Retardierung des Feldes hervorgerufen wird? Und wie kann das
> Higgs-Teilchen nachgewiesen werden?

Ich habe am Samstag zwei grosse Postings zum Higgs losgelassen. Da steht
schon einiges drin.

Es ist dazu zu sagen, dass CERN keinesfalls behauptet, das Higgs
nachgewiesen zu haben. Es gibt allerdings einige Ereignisse, die mit
recht ordentlicher Wahrscheinlichkeit vom Higgs herruehren koennten. Der
Punkt ist, dass der dabei verwendete Beschleuniger LEP (Large Electron
Positron collider) eigentlich Ende September abgeschaltet werden sollte,
weil man im LEP-Tunnel den naechsten Beschleuniger bauen will, der an
Energie und Luminositaet (Intensitaet) nie dagewesene Groessenordnungen
erreichen soll, der LHC (Large Hadron Collider). Dieser Beschleuniger
ist sehr detailliert in einem hervorragenden Artikel im neuesten
Spektrumheft beschrieben.

Der Witz ist, dass die Experimentatoren alles an Leistung aus dem LEP
herausgekitzelt haben, was nur geht. Man verwendet Korrekturmagneten zur
Ablenkung. Das Problem ist naemlich, dass man bei hoeherer Strahlenergie
staerkere Magneten braucht um die Teilchen auf ihrer vorgeschriebenen
Bahn zu halten. Das macht man immer am Ende einer Strahlzeit, weil ohne
die Korrekturmagnete, die normalerweise nicht fuer die Ablenkung sondern
zur Korrektur des Strahls verwendet werden, einiges an moeglichen Events
verloren gehen kann, einfach weil die Teilchen nicht mehr so praezise
auf ihrer Bahn fliegen, wie sie sollten. Was die Wissenschaftler wollen,
ist ein bisschen mehr Strahlzeit um das Experiment zu wiederholen und so
die Statistik zu verbessern, um entweder eine statistische Schwankung
auszuschliessen (dann waere das Higgs entdeckt, ein kroenender Abschluss
fuer LEP) oder den Peak als solchen zu enttarnen (dann wuesste man auch
etwas, naemlich, dass das Higgs nicht im Energiebereich ist, der da
abgedeckt wurde).

Kurz zur Physik des Higgs: Es handelt sich um ein in das Standardmodell
der Elementarteilchen eingefuehrtes Teilchen, das dazu dient, den
uebrigen Teilchen Masse zu verleihen. Das Standardmodell ist naemlich
eine sog. Quantenfeldtheorie, und wenn man einfach naiv irgendwelche
Feldgleichungen ansetzt, die mit der Relativitaetstheorie konsistent
sind, endet man mit grosser Wahrscheinlichkeit bei einer Theorie, die
notwendigerweise unendlich viele Parameter (Kopplungskonstanten)
enthaelt und wenig Vorhersagekraft besitzt. Es gibt allerdings eine
ziemlich eingeschraenkte Klasse von Theorien, die sog. Renormierbaren
Quantenfeldtheorien, bei denen genau das nicht passiert: Mit einer
relativ kleinen Zahl von Parametern (immer noch zu viele, so um die 25,
wenn man mitberuecksichtigt, dass die Neutrinos sicher Masse haben)
lassen sich _alle_ bis jetzt durchgefuehrten Experimente mit einer
hervorragenden Genauigkeit beschreiben.

Die Eigenschaft der Renormierbarkeit (Nobelpreis 1999 an 't Hooft und
Veltman fuer den Nachweis und Entwicklung der diesbzgl. Rechentechniken)
beruht ganz wesentlich auf Symmetrien. Eine Symmetrie bedeutet, dass ich
bestimmte Operationen an den Feldern ausfuehren kann, ohne dass sich
irgendetwas an den Gleichungen aendert. In der Quantenfeldtheorie haben
solche Symmetrien meistens zur Folge, dass sie bestimmte
Feynmandiagramme, die divergenten Integralen entsprechen, verbieten. Die
divergenten Feynmandiagramme sind es aber genau, die dazu fuehren, dass
man bestimmte unendliche Ausdruecke von den sog. nackten
Kopplungskonstanten (Gegenterme) abziehen muss, damit man eine endliche
beobachtbare Kopplungskonstante kriegt. Verhindert also die Symmetrie
bestimmte divergente Diagramme, bzw. sorgt dafuer, dass diese Diagramme
endlich sind, braucht man diesen Gegenterm nicht, und man braucht also
auch keine Kopplungskonstante fuer diesen bestimmten Diagrammtyp, um die
Divergenz "unter den Teppich zu kehren" (Feynman ;-)).

Ein Beispiel ist in der uns wohlvertrauten QED (quantisierte Form der
Elektrodynamik) das Diagramm mit vier Photonenlinien als aeussere
Linien. Das entspricht der Streuung von Licht an Licht
(Delbrueckstreuung), die in der klassischen E-Dynamik nicht vorkommt
(Photonen sind ja ungeladen und wechselwirken nicht direkt miteinander
sondern eben nur mit geladenen Teilchen, z.B. Elektronen). Es gibt aber
in der QED Diagramme mit vier aeusseren Photonenlinien, die durch
Quantenkorrekturen zur klassischen E-Dynamik hervorgerufen werden. Naiv
betrachtet (fuer die Experten: Powercounting) muesste der dem Diagramm
analytische Ausdruck divergieren. Allerdings sorgt die Eichinvarianz der
Elektrodynamik (das ist die Symmetrie unter einer bestimmten Operation
an den Photonenfeldern und den Feldern, die die geladenen Teilchen
beschreiben) dafuer, dass dieses Diagramm in Wirklichkeit endlich ist
und sorgt so fuer die Renormierbarkeit der QED.

Mit genau demselben mathematischen Mechanismus verhindert die
Eichsymmetrie uebrigens auch, dass das Photon durch Quantenkorrekturen
eine Masse bekommt. Die Photonenselbstenergie (Polarisationstensor) ist
naemlich lange nicht so divergent, wie man es erwartet, weil die
Eichsymmetrie eben einen Massenterm fuer Photonen verhindert.

Mit noch komplizierteren Symmetrieoperationen (SU(2)-Eichsymmetrie
genannt) trifft eine aehnliche Betrachtung auf die schwache
Wechselwirkung zu (die in gewisser Weise mit der elektromagnetischen WW
vereinigt ist, was ich aber ehrlicherweise nicht so nennen wuerde, weil
man einfach von Hand die Symmetrie waehlt, die die Phaenomene
beschreibt, man muss sich ueberhaupt vor Augen halten, dass das
Standardmodell nicht erklaert, warum die Symmetrien, die man benutzt,
gut sind, sondern man nimmt einfach die Symmetrien her, die die
Phaenomenologie beschreiben).

Wie oben bei der QED erlaeutert hat aber eine solche Eichsymmetrie zur
Folge, dass die Vektorteilchen, die die Kraefte beschreiben, masselos
sind. Fuer die schwache Wechselwirkung gibt es drei solcher
Vektorbosonen, W (ein + und ein - geladenes) und das Z (el. neutral).
Die haben nach der Phaenomenologie der schwachen Wechselwirkung
(Betazerfall) aber eine ziemliche Masse (um die 90 GeV/c^2). Schreibt
man einfach Massen vor, geht die Eichinvarianz kaputt und die Theorie
ist nicht laenger renormierbar, und das will man nicht, weil man sonst
unendlich viele Parameter einfuehren wuerde!

Jetzt kommt "die Magie" der spontanen Symmetriebrechung ins Spiel. Es
kann sein, dass die Gleichungen eine Symmetrie besitzen, aber nicht die
Loesung zu niedrigster Energie (in der QFT ist das immer der Zustand, in
dem gar keine Teilchen da sind, weshalb man ihn als Vakuum bezeichnet).
Man hat keine Ahnung, wie es im Standardmodell zu einer solchen sog.
spontanen Symmetriebrechung kommen koennte, also fuehrt man von Hand
eine ein, indem man zum Teilchenzoo 4 Spin-0-Bosonen (das sog.
Higgsduplett=2 komplexe Felder=4 reelle Feldfreiheitsgrade) hinzufuegt.
In diesem Minimalfall bleibt bei dieser ad hoc-Hantiererei laut Theorie
ein beobachtbares Teilchen uebrig, naemlich eben das Higgsboson (benannt
nach Peter Higgs, der diese Idee 1964 mathematisch ausgearbeitet hat).
Die anderen drei Teilchen bilden die Freiheitsgrade, die notwendig sind,
damit die W- und Z-Bosonen ihre Masse bekommen. Ein massives
Vektorteilchen hat naemlich drei, ein masseloses nur zwei
Polarisationsfreiheitsgrade!

Im Standardmodell ist es aus mathematisch-technischen Gruenden, auf die
ich nicht naeher eingehen will, sogar so, dass auch die Quarks und
Leptonen ihre Masse von diesem Mechanismus herkriegen (man muss naemlich
aus Renormierungsgruenden das Higgsduplett an die Quark- und
Leptonenfelder koppeln).

All diese komplizierten mathematischen Ueberlegungen haben jede Menge
Teilchen vorhergesagt. Ein Highlight war z.B. die Vorhersage eines
vierten Quarks (fuer die Experten: man kannte damals nur up, down und
strange, vorhergesagt wurde das charm-Quark von Glasho, Iliopolous,
Maiani (GIM ;-)) aus der Annahme, dass es keine flavouraendernden
neutralen Stroeme geben soll). All diese vorgesagten aus
Konsistenzgruenden in die Theorie eingefuegten Teilchen konnten gefunden
werden (erst kuerzlich hat die Auswertung eines Experiments vom Fermilab
das letzte fehlende Fermion, naemlich das tau-Neutrino zweifelsfrei
nachgewiesen).

Das Higgs spielt nun im SM eine so hervorragende Rolle, dass die
Sensation fuer das Lab, das das entdeckt, natuerlich gross waere.
Ausserdem ist diese Massenerzeugung aus dem Higgsmechanismus der
spontanen Symmetriebrechung, wie oben gesagt, eine reine ad-hoc-Annahme,
die keinerlei mathematischen Zwaenge hat. Es koennte alles auch ganz
anders sein! Man koennte sich vorstellen, dass es mehr als ein Higgs
gibt (wofuer es keinerlei experimentelle Hinweise gibt) oder dass das
Higgs gar kein elementares Teilchen ist, sondern ein gebundener Zustand
aus Fermionen ist, die mit einer superstarken bisher unbekannten Kraft
zusammengehalten werden (Technicolor-Theorien).

Auf jeden Fall wird man neue Beschleuniger brauchen, um den oben
beschriebenen Higgssektor des Standardmodells genauer zu untersuchen.
Die Probleme, die gerade skalare Bosonen in Eich-Quantenfeldtheorien
machen (sog. Hierarchieproblem) lassen naemlich vermuten, dass noch ganz
andere Symmetrien (die sog. Supersymmetrien) eine viel nettere Variante
der Naturbeschreibung waeren. Eigentlich glaubt so recht niemand daran,
dass das Standardmodell fuer alle Energien wahr ist, und man hofft daher
eigentlich, dass sich dort, wo das Higgs sein sollte (die
CERN-Experimente scheinen auf eine Masse um die 110 GeV hinzudeuten),
neue Physik "beyond the standard model" auftut, die uns der Beantwortung
der grossen ungeklaerten Fragen, die das Standardmodell offen laesst,
naeher bringt:

(1) Wie kommt Masse in die Welt?
(2) Warum ist die kosmologische Konstante so klein?
(3) Wie kann man Elementarteilchenphysik (Quantentheorie) mit der
Gravitationstheorie (Allgemeine Relativitaetstheorie) vereinbaren?
(4) ...


postel peter wrote:

> Danke erst mal, habe jetzt so eine schwache Ahnung davon.
> Also Higgsteilchen sind gar keine Teilchen, sondern man definiert sie einfach,
> weil man es aus Verstaendnisgruenden oder aus Tradition so macht, dass man jedes
> Feld an einem Teilchen wirken lassen will. Und die Gravitation brauchst deshalb
> ein Higgsteilchen. Auf gut Deutsch gibt es das also garnicht, sondern ist ein
> Kunstgriff - na, auf den ich auch haeette kommen koennen.
> Ich glaub, ich habs kapiert.
> Also zum Nachweis des Higgsteilches im Beschleuniger weist man kein Teilchen
> nach, sondern nur - ja was eigentlich ?

Das Higgsteilchen ist eine Resonanz, d.h. ein Teilchen, das nicht stabil
ist, sondern zerfaellt. Nach dem minimalen Standardmodell, das nur ein
Higgsteilchen hat, zeraellt es vornehmlich ueber ein virtuelles Z-Meson.
Gezaehlt werden "Events", also das Auftreffen von bestimmten
Teilchenkonfigurationen. Beim CERN sind das die Prozesse

ee->HZ->qqqq bzw.
ee->HZ->eeqq

Die Quarks beobachtet man natuerlich auch nicht direkt, sondern als
Hadronen in sog. Jets (von jedem Quark geht ein Jet aus). Aus diesen
Endprodukten wird die invariante Masse des ee-Paares rekonstruiert und
dagegen wird die Zahl der og. Events aufgetragen. Da kommt dann ein Plot
heraus, der Peaks an der Stelle der Z-Masse und des Higgsbosons zeigt.
Der Punkt ist, dass das ganze sehr selten passiert, also der ganze
Background abgezogen werden muss und von all den Stoessen, die im LEP
passiert sind bleiben dann nur sehr wenige uebrig, die den oben
genannten Reaktionen entsprechen. Diese Statistik laesst sich nur
verbessern, indem man die Experimente weiterfaehrt, und man hat deshalb
beim CERN gerade entschieden, LEP noch einen Monat lang weiterlaufen zu
lassen.

Jetzt zur Theorie. Im minimalen Standardmodell gibt es nur ein Higgs.
Ich will mich auf diesen Fall beschraenken. Der Punkt ist die spontane
Symmetriebrechung der Eichsymmetrie. Das fuehrt dazu, dass die
Gleichungen fuer die Quantenfelder immer noch die Eichsymmetrie
erfuellen und die Theorie somit alle Vorteile der Eichtheorie besitzt
(insbesondere die Renormierbarkeit). Der Grundzustand ist aber nicht
symmetrisch. Vielmehr zeichnet man willkuerlich einen der unendlich
vielen Grundzustaende aus und entwickelt die Theorie um diesen
Grundzustand.

Das generiert zum einen das von Georg beschriebene konstante Higgsfeld,
welches bei der Entwicklung um den Grundzustand die Massen fuer die W-
und Z-Vektorbosonen und ueber die Yukawakopplungen (fuer die Experten:
da kommt auch noch eine Mixing Matrix fuer die Quarks und neuerdings
auch fuer die Leptonen (Neutrinos) dazu, die die Masseneigenzustaende
auf die weak isospin eigenstates und vice versa abbilden dazu, die sog.
CKM (Cabbibo, Kobayashi, Maskawa)-Matrix, aber das ist ein Detail) die
Massen fuer die Quarks und Leptonen. Aber das ist nicht alles! Es kann
immer noch Anregungen des Higgsfeldes geben.

Das Higgsfeld ist zunaechst ein Duplett (vielleicht sagt mir einer mal
verbindlich, wie man das schreibt, also Duplett, Doublett oder Dublett,
man sieht in jedem Buch 'ne andere Schreibe ;-(), besteht also
eigentlich aus zwei komplexen (also 4 reellen) Feldfreiheitsgraden. Dank
der Eichsymmetrie sind davon aber drei Freiheitsgrade fuer die
Massenerzeugung der Vektorbosonen zustaendig (ein massives Vektorfeld
hat naemlich 3 transversale Feldfreiheitsgrade, ein masseloses nur 2),
werden also in die Vektorfelder absorbiert. Diese Vektorfelder sind
schon wohletabliert (eben die W- und Z-Bosonen, fuer die Rubbia et al
vom CERN den Nobelpreis gekriegt haben). Es bleibt aber immer noch ein
skalarer Feldfreiheitsgrad uebrig. Dessen Anregungen erscheinen nach der
Theorie im physikalischen Teilchenspektrum. Da das Higgs wie gesagt
ziemlich schnell zerfaellt, wird man es nicht als Teilchen direkt
detektieren, sondern als Resonanz, die man aus den beobachtbaren
Endprodukten wie oben angedeutet rekonstruiert.

> Meinte ich z.B. Frueher hielt ich die immer fuer Wellenpakete, aber inzwischen
> wurde mir hier im Zusammenhang klar,  das es keine Wellenpakete sind, sondern
> Teilchen, die punktfoermig aufknallen koennen. Wenn mir jetzt noch einer sagen
> koennte, aus was die dennn sind, wuerde mir vielleicht ein grosses Licht aufgehen
> und ich koennte einiges besser verstehen.

Der Witz ist, dass all die angesprochenen Teilchen als Elementarteilchen
beschrieben werden, also durch elementare Quantenfelder im
Standardmodell. Sie sind nicht weiter auf andere Konstituenten
zurueckfuehrbar. Es ist also vielmehr umgekehrt: Wir muessen sagen, dass
wir die Materie als aus all diesen Teilchen konstituiert verstehen. Es
ergibt keinen Sinn, sagen zu wollen, "aus was" diese Teilchen sind. Es
sind die Grundbausteine der Materie, ueber die wir eben nicht mehr
wissen als einen Haufen (viel zu viele) Konstanten (Massen
Kopplungskonstanten).

> Photonen wechselwirken nicht mit der Gravitation, deshalb haben sie keine Masse
> und keine Higgsteilchen. Gut ?

That's another story. Nach der ART wirkt jeder Beitrag zum
Energie-Impulstensor als Quelle des Gravitationsfeldes und wird
umgekehrt vom Gravitationsfeld auch mitbestimmt (das ist der Gehalt der
Einsteinschen Feldgleichungen, die durch Zustandsgleichungen der Materie
zu ergaenzen sind, damit ein abgeschlossenes Gleichungssystem wird.
Diese Zustandsgleichungen folgen im Prinzip aus den Feldgleichungen der
Quantenfelder, die die Materie beschreiben, allerdings ist das Bild hier
noch nicht komplett, weil man bisher keine physikalisch anwendbare
Theorie der Quantengravitation hat, obwohl die Stringtheorie scheinbar
ein recht vielversprechender Ansatz sein koennte). Photonen
wechselwirken also, wie alle Materie, ueber die Gravitation. Das
aeussert sich darin, dass das Licht an schweren Objekten (z.B. der
Sonne) abgelenkt wird.

Da die Photonen invariante Masse 0 haben, ist die Eichsymmetrie der
Elektrodynamik nicht spontan gebrochen, und man braucht infolgedessen
auch kein Higgsboson um dem Photon eine von 0 verschiedene Masse zu
geben.
--

 Norbert Dragon
dragon@itp.uni-hannover.de
http://www.itp.uni-hannover.de/~dragon

ab 9.10.2000:

* Horst Laschinsky <horst.o.laschinsky@physik.stud.uni-erlangen.de> schrieb

> IIRC werden die Neutrinos sogar einige Stunden bis Tage _vor_ dem Licht
> detektiert.

Bei der Supernova 1987 in der Grossen Magellanschen Wolke hat man
Neutrinos registriert, die eine Stunde vor der Zeit ankamen, als man
die Supernova bemerkt hat. Es ist also hoechstens ein
Laufzeitunterschied von 1 Stunde aufgetreten.
Da Licht nur mit mit der explodierende Sternhuelle nach draussen
gelangt, ist es um die Laufzeit verzoegert, die die Explosionsfront
vom Kern des explodierenden Sterns zur Huelle braucht.

In jedem Fall stimmen die Laufzeiten von Licht und Neutrinos innerhalb
einer Stunde ueberein, wenn man Verschwoerungen ausschliesst, dass das
Licht sehr viel laenger gebraucht hat, um zur Sternenoberflaeche zu
gelangen und danach diese Verzeogerung so genau durch eine schnellere
Ausbreitungsgeschwindigkeit ausgegleichen hat, dass wir Neutrinos
und Licht nahezu gleichzeitig hier gesehen haben.

Wenn aber ueber die Laufzeit von 160 000 Jahren Licht und Neutrinos
innerhalb einer Stunde hier eingetroffen sind, dann stimmen ihre
Geschwindigkeiten innerhalb der ersten 9 Stellen ueberein.

Da die Neutrinos mit Energien zwischen 10 und 20 MeV hier innerhalb
von 10 Sekunden ankamen, waren ihre Geschwindigkeiten in den ersten
11 bis 12 Stellen gleich und demnach ihre Masse kleiner als etwa 10 eV.
 
Genaueres in der Arbeit

Leo Stodolsky, The speed of light and the speed of neutrinos,
               Phys. Lett. B 201 (1988) 353   ,

die in der Faq zitiert wird.

--


Hendrik van Hees <h.vanhees@gsi.de> schreibt
  zu meiner Stellungnahme

>> Uebrigens enthaelt das Standardmodell einen Mechanismus, der
>> Neutrinomassen verbietet: die Darstellung der Eichsymmetrie
>> auf den Fermionen ist chiral, sie schliesst also Fermionmassen
>> aus. Die spontane Symmetriebrechung kann im Standardmodell
>> den Neutrinos keine Masse verleihen.

> Es gibt im Standardmodell eben _keinen_ Mechanismus,
> der Massen fuer die Neutrinos verbietet.

Es ist irrefuehrend, davon zu sprechen, dass Standardmodell enthielte
keinen Mechanismus, der Massen von Neutrinos verbietet.

Die physikalischen Eigenschaften eines Modells haengen nicht nur von
den Symmetrien sondern auch davon ab, wie die Symmetrien realisiert
sind. Die Realisation der Eichgruppe U(1) x SU(2) x SU(3) auf drei
Familien mit je 15 Weyl-Fermionen und einem Higgs-Dublett enthaelt
einen Mechanismus, der vor spontaner Symmetriebrechung garantiert,
dass alle Fermionen masselos sind und der nach Brechung der Symmetrie
garantiert, dass die Neutrinos masselos sind.

Das Standardmodell, fuer dessen Entwicklung Glashow, Weinberg und Salam
den Nobelpreis erhielten, enthaelt einen sehr wirksamen Mechanismus
der Massen fuer Neutrinos verhindert: es enthaelt keine
rechtshaendigen Neutrinos.

> In der Tat muss man natuerlich die rechtshaendigen
> Neutrinos wieder einfuehren, die man im masselosen Limes nicht
> benoetigt.

Wer einen Mechanismus dafuer benoetigt, dass Neutrinos masselos seien,
braucht nur das Standardmodell verwenden.

Wer massive Neutrinos vorzieht, setzt diesen Mechanismus ausser Kraft
und aendert das Standardmodell ab, indem er rechtshaendige Neutrinos
einfuehrt.

Norbert Dragon wrote:

> Wer massive Neutrinos vorzieht, setzt diesen Mechanismus ausser Kraft
> und aendert das Standardmodell ab, indem er rechtshaendige Neutrinos
> einfuehrt.

Ok, aber neben all den anderen Willkuerlichkeiten des SM ist es doch
besonders willkuerlich, dass es eine Quark-Mischungsmatrix (CKM) gibt,
und fuer die Leptonen keine. Ein Modell ist eben ein Modell und keine
Theorie.

Es waere aber doch hochspannend, wenn Neutrinomassen im SM gaenzlich
ausgeschlossen waeren, in dem Sinne, dass die Eichgruppe nicht mehr
konsistent zur Beobachtung von Neutrinomassen und -mischungen waere.

Das SM ist ja auch relativ robust gegen Aenderungen des Higgssektors. Es
ist ueberhaupt nicht klar, warum es nur ein Higgs geben soll (das nennt
sich dan Standardmodell mit minimalem Higgssektor). Jedenfalls gibt es
keine Beobachtungen, die eindeutig einen bestimmten Higgssektor
erzwingen wuerden. Aehnlich ist das mit den Neutrinomassen, deren obere
Grenzen eigentlich noch nie so furchtbar klein waren. Dass die
Neutrinomassen aber so klein sind, scheint mir ganz befriedigend durch
die diversen seesaw-Mechanismen erklaert zu werden, obwohl auch diese
keinerlei theoretische Notwendigkeit besitzen.

Das SM ist imho nur deshalb so erfolgreich, weil es in so weitem Masse
erweitert und umgestaltet werden kann ;-)).

* Hendrik van Hees <h.vanhees@gsi.de> schreibt

> Es waere aber doch hochspannend, wenn Neutrinomassen im SM gaenzlich
> ausgeschlossen waeren, in dem Sinne, dass die Eichgruppe nicht mehr
> konsistent zur Beobachtung von Neutrinomassen und -mischungen waere.

Es gibt Modelle, in denen topologische Gruende Massen verbieten.

Logisch nicht ganz zwingend nimmt man sie als Ausgangspunkt weiterer
Untersuchungen, in denen dann unterstellt wird, die Massen seien klein,
im Widerspruch zur Tatsache, dass topologische Eigenschaften sich bei
stetigen Aenderungen der Parameter nicht aendern.

> Das SM ist ja auch relativ robust gegen Aenderungen des Higgssektors. Es
> ist ueberhaupt nicht klar, warum es nur ein Higgs geben soll (das nennt
> sich dan Standardmodell mit minimalem Higgssektor). Jedenfalls gibt es
> keine Beobachtungen, die eindeutig einen bestimmten Higgssektor
> erzwingen wuerden.

Das stimmt teilweise: ich erinnere mich an Fruehzeiten, in denen mit
sehr unterschiedlichen Higgssektoren gespielt wurde. Nach Aussondern
aller Higgssektoren, die ungeeignet sind, bleiben noch einige
Moeglichkeiten offen.

> Aehnlich ist das mit den Neutrinomassen, deren obere
> Grenzen eigentlich noch nie so furchtbar klein waren.

Kommt darauf an, was man als klein ansieht.

Verglichen mit der Schranke an die Masse des Photons

m_Gamma < 10^-16 eV

ist die Schanke an die Elektronneutrinomasse

m_Neutrino < 10 eV

riesig. Verglichen mit der Elektronmasse

m_Elektron = 0.511 10^6 eV

ist sie sehr klein.

> Dass die Neutrinomassen aber so klein sind, scheint mir ganz
> befriedigend durch die diversen seesaw-Mechanismen erklaert
> zu werden, obwohl auch diese keinerlei theoretische Notwendigkeit
> besitzen.

In vielen Eichvereinigungsmodellen (GUT-Modellen), etwa in
SO(10)-Modellen treten rechtshaendige Neutrinos auf, die durch
den Higgseffekt zu Massen beitragen, die um denselben Faktor
unter der W-Boson-Skala (etwa 100 GeV) liegen, wie die W-Boson-
Skala unter der Skala, bei der die komplette Eichgruppe sichtbar
wuerde (etwa 10^16 GeV). Man erwartet also in solchen Modellen
Neutrinomassen von 10^-14 * 100 GeV = 10^-3 eV. In einzelnen
Modellen ist dieser seesaw-Mechanismus natuerlich und theoretisch
notwendig. Allerdings sind die Modelle nicht zwingend geboten.

> Das SM ist imho nur deshalb so erfolgreich, weil es in so
> weitem Masse erweitert und umgestaltet werden kann ;-)).

Ich staune ueber den gegenteiligen und enttaeuschenden Befund:
dass das einfachste Modell, das man sich denken kann,
mit der geringen Abaenderung, rechtshaendige Neutrinos zusaetzlich
aufzunehmen, alle experimentellen Beobachtungen richtig beschreibt,
ohne dass man es erweitern und umgestalten muss.

 

> Was mich in dem Zusammenhang mal interessieren wuerde ist, warum man
> ueberhaupt noch mit GUT-Modellen spielt. Man hoert doch eigentlich immer
> wieder, dass die durch sie implizierte Instabilitaet des Protons
> experimentell mit grosser Signifikanz ausgeschlossen wurde. War das
> nicht die urspruengliche Aufgabe des Gran Sasso-Experiments (sp?).

Weil man den Protonzerfall messen wollte, der in Eichvereinigungs-
modellen vorausgesagt wurde, (Grand Unified Theories = GUT,
GUT-Modelle ist sprachlich ein  Ungetuem, man koennte hoechstens
von GUMs reden) wurden Experimente wie der Wassertank in Kamiokande
aufgebaut.

Ihr wichtigster experimenteller Befund war der Nachweis der Neutrinos
der Supernova 1987a -- ein Jahrhundertereignis.

Die Detektoren, die Protonzerfall messen sollten, wiesen zunaechst
Ereignisse nach, die als Protonzerfall gedeutet werden konnten --
insbesondere vor internationalen Konferenzen (Paris, 1984) war die
Ereignisrate hoch. Wer will sich schon einen Nobelpreis entgehen
lassen? Nuechternere Analyse zeigte dann spaeter, als die
Experimentiergruppen ihre Detektoren besser kennengelernt hatten,
dass es keine Anzeichen fuer Protonzerfall gibt und dass daher das
Proton eine Lebensdauer von mehr als 10^25 Jahre hat.

Damit sind die einfachsten Eichvereinigungsmodelle widerlegt.

Allerdings weisen die mittlerweile verfuegbaren, besseren Daten ueber
die Groesse der Eichkopplungen darauf hin, dass sie dann zu einer
gemeinsamen Eichgruppe gehoeren, wenn es bei etwa 10 TeV zusaetzliche
Materie, die Supersymmetriepartner der bekannten Teilchen, gibt.

> MaW.
> sind denn trotz der praktisch verschwindenden Zerfallsbreite des Protons
> noch GUT-Kandidaten uebrig, die auch sonst mit allen empirischen Fakten
> vertraeglich sind?

In supersymmetrischen Theorien liegt die Energieskala, bei der alle
Eichwechselwirkungen gleich stark werden, bei 10^16 GeV und das Proton
hat in diesen Modellen eine Lebensdauer, die berechenbar groesser
ist als die experimentellen Schranken.

> Ansonsten ist natuerlich die Idee, eine einzige halbeinfache kompakte
> Eichgruppe zu verwenden immer noch sehr verlockend, zumal man im Prinzip
> alle moeglichen Modelle durchspielen kann (dank der
> Cartancharakterisierung aller halbeinf. Liegruppen) mitsamt spontaner
> Symmetriebrechung. Das ist aber wahrscheinlich eine ziemlich langwierige
> und nervtoetende Aufgabe.

Die Untersuchung aller geeigneten Vereinigungsgruppen hat nur kurze
Zeit gedauert ( etwa von 1974 bis 1976 ). Das Thema ist von geringem
Interesse, weil es keine positiven experimentellen Hinweise gibt, die
darueber hinaus gehen, dass die drei Kopplungen von U(1), SU(2) und
SU(3) bei etwa  10^16 GeV gleich werden. In einigen Modellen lassen
sich zwar auch einige Massenverhaeltnisse von Quarks und Leptonen grob
verstehen, aber alle diese Hinweise sind nicht eindeutig.

--

Norbert Dragon
dragon@itp.uni-hannover.de
http://www.itp.uni-hannover.de/~dragon

Aberglaube bringt Unglück.