1958 schien es so weit zu sein – und Werner Heisenberg traute man es schon zu: Die Entdeckung der WELTFORMEL. Er stand an der Tafel, und da las man eine ziemlich einfach anzuschauende – und ästhetisch schöne – Kombination von wenigen Symbolen. Es waren griechische Buchstaben, sie bezeichneten sogenannte Operatoren, hinter denen sich freilich eine komplexe Mathematik mit ihren Rechenvorschriften verbarg. Χ (Chi), beispielsweise, stand für die gesamte Materie, aus der Heisenberg alle Elementarteilchen herleiten wollte. Ordnung tat not: Die Quantenphysiker wurden aus ihren Teilchenbeschleunigern mit einer immer größeren Anzahl atomistischer Partikel bombardiert (vulgo: Teilchenzoo). Akribisch vermaß man deren wenige Eigenschaften: Masse; Ladung; Spin; Energie; Zerfallszeit; Zusammensetzung. Der weit überwiegende Anteil der massereichen Teilchen war aus kleineren Einheiten aufgebaut. Je komplexer der Aufbau eines Teilchens, um so kürzer schien seine Zerfallszeit. Spektakulär war 1963 der Nachweis eines relativistischen Effekts bei Myonen (Myon: schweres Elektron, mit 200-facher Masse). Sie finden sich in der Höhenstrahlung, dürften wegen ihrer kurzen Zerfallszeit die Erde eigentlich nicht erreichen. Da sie sich jedoch mit nahezu Lichtgeschwindigkeit durchs All bewegen, unterliegen sie der Zeitstreckung und lassen sich somit auf der Erde registrieren.
Das Chaos des Teilchenzoos fand also sein Ende. Man machte neue Entdeckungen, mußte wieder umdenken, und der quantenmechanische Mikrokosmos - wie das Universum, der Makrokosmos - wurden immer rätselhafter. Um nicht zu sagen: bizarrer. Von Demokrit (460-371) bis Dalton (1766-1844) war die kleinste und unteilbare Einheit der Materie das Atom. 1896 entdeckte Antoine-Henri Becquerel die Radioaktivität: Er fand Leuchtspuren von Uran auf Photopapier. 1919 gelang Ernest Rutherford die erste Atomumwandlung: Er beschoß Stickstoffatome mit Heliumkernen (α-Teichen) und erhielt, bilanzmäßig korrekt, Sauerstoff und Wasserstoff. 1938 wurde zufällig von Otto Hahn und Lise Meitner die Kernspaltung entdeckt: Durch Beschuß von Uran(235) mit Neutronen zerbrach dieses, bilanzmäßig korrekt, in Barium und Krypton (auch andere Kombinationen wurden verifiziert) – wobei in doppelter Anzahl Neutronen produziert wurden (Kettenreaktion). Es war also schon länger bekannt, daß das Atom nicht mehr das kleinste Elementarteilchen war. Man wußte, es besteht aus einem Kern aus positiv geladenen Protonen und ladungsfreien Neutronen. Der Kern ist umgeben von einer Hülle aus negativ geladenen Elektronen, die auf sphärischen Schalen kreisen. Exakt so viele wie nötig, um die positive Ladung des Kerns zu neutralisieren. Eine bestechende Idee: Elektronen umkreisen den Atomkern wie Planeten die Sonne – und daraus resultiert das wunderbare Bohrsche Atommodell, aus dem sich die (anorganisch)-chemischen Reaktionen herleiten. Es ist für die Didaktik in der Chemie nach wie vor unentbehrlich.
In der theoretischen Physik führt das Modell, aus der Nähe betrachtet, leider zu Widersprüchen. Es verweigert uns Antworten auf einem völlig anderen quantenmechanischen Niveau. Es fällt auf: Von chemischen Reaktionen ist nur im Zusammenhang mit dem Bohrschen Atommodell die Rede. Nuklearreaktionen sind etwas prinzipiell Verschiedenes. Sie sind chemisch überhaupt nicht beeinflußbar. Als existierten zwei Paralleluniversen nebenher: Ein physikalisch-chemisches und ein quantenphysikalisches. Deswegen ist auch die mittelalterliche Goldmacherei nie gelungen: Mit Chemie kann man nicht ein Element in anderes verwandeln, nur jeweils Verbindungen des einen oder des andern. Nukleartechnisch möchte die Goldmacherei funktionieren – fragt sich nur, zu welchen Kosten?
Wie ist es gelungen, mit dem Spuk des Teilchenzoos fertig zu werden? Ganz einfach: So ging das nicht weiter! Natürlich hatte man längst einen Verdacht: Da sind Kräfte mit im Spiel, die wir nicht kennen, und vielleicht auch unbekannte Materie – sind das denn überhaupt unsere wirklichen Elementarteilchen: Protonen und Neutronen, und der ganze Schwarm an Mesonen, Myonen, Pionen – das Volk der Teilchenbeschleuniger? Wie soll man sich die Packung von 92 positiv geladenen Protonen auf engstem Raum erklären – diese zusammen zu halten, zu neutralisieren, das schaffen doch nicht 92 mickerige Elektronen auf einer – nach atomaren Maßstäben – himmelweit entfernten Hülle.
Zum weiteren Verständnis müssen wir uns ein wenig mit dem Standardmodell der Elementarteilchen befassen, das an die Stelle des Teilchenzoos trat. Es ist ein wohldurchdachtes Modell, das den empirischen Erkenntnissen Rechnung trägt. Es ist dennoch ein Provisorium, das noch gar nichts über die Dunkle Materie aussagt – diesen geschätzten 90 % der gesamten Masse des Universums. Auch die Gravitation wird ignoriert, sie scheint nicht in die Welt der Teilchen/Quanten zu passen. Selbst das jüngste, lang gesuchte Higgs-Teilchen läßt sich noch nicht sicher einordnen. Das Standardmodell, wiewohl von der Willkür zahlloser Teilchenspezies bereinigt, erscheint noch immer ziemlich komplex. In den Teilchenbeschleunigern laufen Nuklearreaktionen ab, die in der Quantentheorie eine Rolle spielen – nicht jedoch in der Natur, die unseren Lebensraum erfüllt. Wir wollen uns auf das Naheliegende beschränken, auf das Unverzichtbare zu einem Grundverständnis unserer Welt. Dazu gehört auch, daß wir alle wesentlichen Objekte unserer Ausführungen eindeutig definieren und jeweils nur einen einzigen Begriff verwenden. Es ist eine Unsitte unter den Fachgelehrten, beispielsweise den Energieträgern der Wechselwirkung zwischen Materieteilchen sieben verschiedene Namen zu geben: Eichbosonen, Austauschbosonen, Austauschteilchen, Botenteilchen, Trägerteilchen, Kraftteilchen, Wechselwirkungsteilchen. Dem unbefangenen Leser wird das Verständnis der Materie erschwert, indem ein semantischer Wirrwarr Kompliziertheit vortäuscht. Wir werden konsequent den Term Austauschteilchen verwenden.
Wir unterscheiden heute an Elementarteilchen:
A. Fermionen als Repräsentanten der Materie-Teilchen, die sich durch den Raum unterhalb der Lichtgeschwindigkeit bewegen. Fermionen haben einen halbzahligen Spin. Bekannteste Vertreter: Elektronen und die Quarks (Elementarbausteine von Protonen und Neutronen).
B. Bosonen als Repräsentanten der Energie-Träger, die sich als (theoretisch) masselose Wechselwirkungskräfte mit (theoretisch) Lichtgeschwindigkeit über elektromagnetische Felder ausbreiten. Sie reagieren mit den materiellen Fermionen. Man nennt sie daher auch (virtuelle) Austauschteilchen. Bekannteste Vertreter: Photonen. Bosonen besitzen definitionsgemäß keine Masse (s. jedoch Elektroschwache Wechselwirkung) und haben einen ganzzahligen Spin.
Beim Spin müssen wir wieder einmal umdenken. Spin (engl. Drall) leitet sich von dem Eigendrehimpuls von Teilchen her. Diese Bedeutung kommt ihm nicht mehr zu bei den dimensions- und masselosen fundamentalen Elementarteilchen. Es handelt sich letztlich um einen Quanteneffekt. Die Maßzahl des Spins ist ein Charakteristikum einer Teilchengruppe, so bei den Fermionen Elektron, Neutrino, Quark ½ Һ, bei den Bosonen Photon, Gluon, W-und Z-Boson 1 Һ. Mit Һ wird das reduzierte Plancksche Wirkungsquantum h/2π bezeichnet. Die Notwendigkeit der Einführung des Spins als Konstituente der Atomphysik ergab sich aus Diskrepanzen bei Beobachtungen der Atomspektren. Etwas später bemerkte man eine Anomalie in der spezifischen Wärme von Wasserstoff, die sich mit Einführung des Spins überwinden ließ. Das Beispiel des Spins ist lehrreich: Wie man auf Diskrepanzen bei einem an sich attraktiven physikalischen Modell reagiert. Man führt auf Bewährung sinnvolle Parameter ein, und wenn die Ergebnisse dann schlüssig ausfallen, hat man das Problem zunächst einmal gelöst. Beim Spin waren es halb- und ganzzahlige Werte, die das Modell befriedigten. Das spricht für das Vorliegen eines systematischen Fehlers, nicht einer bloßen Abweichung von den erwarteten Ergebnissen.
Nach der Einsteinschen Formel E=mc² ist Materie in Energie vollständig umwandelbar – und umgekehrt: So wird in einem Teilchenbeschleuniger, etwa dem LHC (Large Hadron Collider), ein Partikel auf eine enorm hohe Energie beschleunigt, damit sich bei Kollisionen ein massereiches Teilchen bilden kann, beispielsweise das Higgs-Teilchen.
In der Einsteinschen Formel (E=mc², wobei E= Energie; m=Masse; c= Lichtgeschwindigkeit) spiegelt sich die alte Kontroverse Newton-Huygens wider: Wie kann sich ein Lichtstrahl wie ein Strom von Materieteilchen verhalten und gleichzeitig als Welle auftreten, die sich über die besondere Feldstruktur des Raums mit Lichtgeschwindigkeit als immaterielle Kraft bis in unendliche Fernen fortpflanzt? Auf einen wesentlichen Unterschied zwischen Fermionen und Bosonen sei hingewiesen. Fermionen besitzen eine einmalige Individualität: Zwei Fermionen mit identischen Eigenschaften können nicht im selben (atomistischen) Raum existieren. Bosonen dagegen besitzen keine Individualität. Sie sind stets austauschbar. Sie verlieren ihre Identität sogar, wenn sie nur ihre Bewegungsrichtung ändern. Und sie treten in makroskopischen Quantenzuständen in kompakter Dichte auf, etwa in einem Bose-Einstein-Kondensat.
Wir erlauben uns einen kleinen Umweg über die Aggregatzustände der Materie, die im quantenmechanischen Bereich so fundamental unterschiedlich sind, verglichen mit unserer gewohnten makroskopisch-physikalischen Umgebung. Das Bose-Einstein-Kondensat bedeutet jedoch eine Brücke zwischen beiden Welten. Wir haben es konservativ mit drei Formen kinetischer Energie zu tun: Transversale freie Bewegung, Rotation um die eigene Achse, Oszillation – d. h. Schwingung um Gitterpunkte, wobei die Energie nach Art des elastischen Stoßes über ein Gitterfeld transportiert wird. Wir unterscheiden drei stabile – d. h. im Gleichgewicht befindliche – Aggregatzustände (a – c):
a) Festkörper von kristalliner Struktur. Sie sind schwer verformbar, ihre kinetische Energie resultiert hauptsächlich aus der Oszillation (Schwingung) der Gitterbausteine. Positionsveränderungen wie auch Anregung der Eigenrotation stellen sich ein bei Zufuhr von Wärmeenergie. Die Heisenbergsche Unschärferelation fordert auch im Grundzustand eine minimale Schwingung (Nullpunktsfluktuation).
b) Flüssigkeiten mit bedingter Struktur. Sie sind verformbar, d. h. nehmen die Form der Gefäße an, die sie beinhalten, sind de facto jedoch inkompressibel. Die Moleküle gruppieren sich, sind im Verband frei beweglich. Mit zunehmender Temperatur verliert sich diese Ordnung. Die kinetische Energie resultiert aus der Eigenrotation und lokaler Oszillation. Amorphe Feststoffe (also ohne Kristallstruktur), wie Glas, zählt man zu den Flüssigkeiten.
c) Teilchen in gasförmigem Zustand. Sie können sich in allen Richtungen frei bewegen. Sie sind praktisch unabhängig voneinander. Sie gewinnen ihre kinetische Energie ausschließlich aus der Translation. Während jedoch bei kristallinen Festkörpern zwischen den Gitterbausteinen (röntgenspektroskopisch detektierbar) und dem makroskopischen Erscheinungsbild (physikalische Messungen) eine Relation besteht, gilt das nicht für ein Ensemble von gasförmigen Teilchen. Der kausale Zusammenhang ist hier nicht mehr klassisch zu sehen: Unsere thermodynamischen Messungen von Druck, Volumen, Temperatur (Allgemeine Gasgleichung) sind nicht ableitbar aus dem Verhalten einzelner Gasmoleküle.
d) Überkritischer Zustand. Während wir im Vorhergehenden Systeme im chemischen/physikalischen Gleichgewicht betrachteten, kennt die Wirklichkeit auch metastabile Zustände außerhalb des Gleichgewichts. Der Zweite Hauptsatz der Thermodynamik – der Entropiesatz – wird von der Realität oft genug ausgehebelt. Das bedeutet immer, daß das System ein erhöhtes Energiepotential beinhaltet, dessen Umwandlung in kinetische Energie und damit in den Zustand des Gleichgewichts sich durch Hemmschwellen verzögert. Bei Phasenübergängen Dampf/Wasser oder Lösung/Feststoff hat man in der Praxis immer mit dem Problem der Verzögerung zu tun. Hier ein Beispiel aus der Praxis des Kraftwerksbetriebs:
Der überhitzte Dampf aus dem Kessel treibt die Turbine an und kondensiert am Ende. Über Kondensator, Speisewasserpumpe, Verdampfer, Überhitzer beginnt ein neuer Zyklus.. Kritisch ist der Übergang von der Dampf- in die Kondensatphase. Es genügt nicht, daß der Dampf die thermodynamischen Daten für eine Kondensation erreicht hat – diese muß auch tatsächlich stattfinden. Das bedeutet die Überwindung von Potentialschwellen, die in den thermodynamischen Algorithmen nicht enthalten sind. Man braucht Kondensationskeime: Das sind – ansonsten unerwünschte – Verunreinigungen, die in einem sauberen Dampf selten anzutreffen sind. In der Praxis hilft die Rauhigkeit der Rohrwand, den Dampf zur überfälligen Kondensation zu zwingen. Analoge Probleme begegnen einem, wenn es bei der Wasseraufbereitung um die Ausfällung von Calciumcarbonat aus übersättigten Lösungen geht. Die Verzögerung zwingt unter Umständen zu einer überdimensionierten Auslegung der Fällungsanlage.
c) Wasserstoffplasma. Um eine nukleare Umwandlung von Wasserstoff (hier: Gemisch der schweren Isotope Deuterium und Tritium) in Helium zu erreichen, muß ein elektrisch leitendes Plasma hergestellt werden. Bis auf Hochvakuum verdünnter Brennstoff wird auf 100-150 Mio Grad erhitzt, wobei sich Atomkern und Elektronen trennen. Der Druck beträgt wegen der geringen Dichte nur wenige bar. Um Abkühlung und damit empfindliche Energieverluste zu vermeiden, muß das Plasma von der Gefäßwand ferngehalten werden. Das geschieht durch magnetischen Einschluß, das heißt Anlegen eines Magnetfeldes, das gegen den inneren Druck des Plasmas gerichtet ist. Die ideale Gefäßform ist der Torus. Der Aggregatzustand von Plasmen ist bei den Nuklearprozessen im All das Übliche (Solar Fire).
d) Bose-Einstein-Kondensat. Unterkühlt man bestimmte Atomsorten bis knapp über dem absoluten Nullpunkt, vermögen sich Stoffeigenschaften plötzlich zu ändern. Bei der Sprungtemperatur findet ein Phasenübergang zu einem makroskopischen Quantenzustand statt, der auch den quantenmechanischen Gesetzmäßigkeiten unterliegt. Die Teilchen sind Bosonen, die sich zu einem homogenen Ensemble zusammenschließen. Sie sind einzeln nicht mehr unterscheidbar. Es gibt nur eine Wellenfunktion, Impuls und Aufenthaltsort werden durch die Unschärferelation bestimmt. Sie besetzen das tiefstmögliche Energieniveau. Das ist nur möglich bei ganzzahligem Spin. Aus dem makroskopischen Quantenzustand resultieren Eigenschaften wie Supraleitfähigkeit, Suprafluidität und weitreichende Kohärenz, d.h. gleiche Phasenlänge und gleiche Polarisationsebene. Forschungsziel ist ein effektiver Atomlaser. Bei Supraleitfähigkeit verschwindet der elektrische Widerstand, bei Suprafluidität die innere Reibung. Die Flüssigkeit dringt durch engste Kapillaren. Es gibt keine Entropie, die Wärmeleitfähigkeit ist unendlich hoch: Es läßt sich kein Temperaturgefälle herstellen.
Fermionen sind heute die fundamentalen Bausteine der Materie. Sie sind nicht weiter teilbar. Sie sind so klein, daß sie als punktförmig, das heißt: dimensionslos, angenommen werden. Aus quantenmechanischer Sicht repräsentieren sie die Grundzustände energetischer Anregung. Wir kennen sie in zwei Erscheinungsformen:
A Leptonen: Elektronen (negativ), Positronen (positiv), Neutrinos (geringe Ladung).
B. Quarks: Bausteine von Protonen (positiv), Anti-Protonen (negativ) und Neutronen (ohne Ladung) und höherkomplexen Gebilden. Man definiert sechs Typen von Quarks, jeweils Teilchen und Antiteilchen. Die Ladungen betragen +2/3 oder -1/3 einer Elementarladung. Je nach Masse und Komplexität unterscheidet man drei Generationen, von denen nur die erste mit Protonen und Neutronen für uns interessant ist. Die Gattungsbezeichnung Quark hört sich schon albern an (tatsächlich soll das Wort auf einem Freiburger Markt aufgeschnappt worden sein), die Namen der einzelnen Typen von Quarks sind ebenfalls nicht altgriechisch: Up und Down (1. Generation), Charm und Strange (2. Generation), Top und Bottom (3. Generation). Ein Proton setzt sich zusammen aus zwei Ups und einem Down.
Am 14. September 2015 – wie nachträglich zu erfahren war – wurden erstmals Gravitationswellen experimentell nachgewiesen. Also nicht wie bisher hypothetisch oder nur vorhergesagt – nein, es liegen Meßstreifen vor aus zwei unabhängigen Beobachtungsorten in den USA. Müssen wir nicht die Weitsicht der Propheten preisen, die es schon immer wußten – angefangen bei Albert Einstein selbst: Es muß Gravitationswellen geben! Gravitation ist eine von den vier fundamentalen Grundkräften der Natur. Diese sind für die Wechselwirkungen zwischen materiellen Objekten verantwortlich. Sie können auch in Kombination ihre Wirkung entfalten. Es sind dies, zusammengefaßt:
a) Gravitation (auch Schwerkraft) wurde erstmals von Isaac Newton (1643-1727) als universale Naturkraft gedeutet und in eine mathematische Form gebracht. Sie wirkt anziehend (nicht auch mal abstoßend?) zwischen Objekten, die eine Masse besitzen, und ist von allen Naturkräften die schwächste. Sie läßt sich nicht im Labormaßstab darstellen, jedoch großräumig an Himmelskörpern beobachten. Sie ist verantwortlich für Gestalt und Mechanismus des Universums, für das Schicksal der Sterne im Endstadium (Kollaps und schwarze Löcher) und Verbiegungen der Raumzeit , und somit ein Parameter in der Allgemeinen Relativitätstheorie. Aus ontologischer Sicht sollte die Masse als eine geometrische Eigenschaft des Daseins, nicht des Soseins betrachtet werden. Träger der Gravitation sind hypothetische Gravitonen, die, wie Neutrinos, Materie ohne Wechselwirkung zu durchdringen vermögen. Sie lassen sich daher nicht abschirmen. Sie bewegen sich wellenförmig über Gravitationsfelder und haben eine unendliche Reichweite. Eine Quantenfeldtheorie existiert noch nicht.
B ) Elektromagnetismus hatte seine Geburtsstunde mit der Beobachtung Hans Christian Ørsteds (1777-1851), daß der Magnetismus eine Wirkung auf den elektrischen Strom ausübt. Schon damals fühlte sich die Naturphilosophie herausgefordert, zu dem seltsamen Phänomen Stellung zu beziehen (Schelling, Hegel). Weitere fundamentale Erkenntnisse steuerte Michael Faraday (1791-1867) bei, indem er – ein genialer, autodidaktischer Experimentator - nachwies, daß sich mittels Induktion bei einer Änderung der magnetischen Felddichte in einem Draht ein elektrischer Strom erzeugen ließ. Seine weiteren Untersuchungen führten zu den technischen Grundlagen des Elektromotors und des Generators zur Stromerzeugung. James Clerk Maxwell (1831-1879) schuf mit seinen nach ihm benannten Gleichungen das mathematische Modell, mit dem sich – wie sich herausstellte – die Wechselwirkungen zwischen magnetischen und elektrischen Feldern adäquat beschreiben ließen. Die Maxwellschen Gleichungen sind nicht ableitbar, ihre Grundlage ist axiomatisch – wie die Axiome der Euklidschen Planimetrie oder die Postulate der Hauptsätze der Thermodynamik.
Anders als in der Technik, begegnen wir in der Physik dem Elektromagnetismus als elektro-magnetischer Welle. Mittlerweile kennen wir das ungeheuer breite Band des Spektrums, das sich von den hochfrequenten kosmischen Strahlen über das sichtbare Licht bis hin zu den gemütlichen Radiowellen erstreckt. Mögen die Spektralbereiche sich nach ihrem Verwendungszweck noch so deutlich unterscheiden – sie alle bewegen sich mit Lichtgeschwindigkeit, die Fernwirkung reicht (theoretisch) ins Unendliche, und an jeder Energie/Materie-Reaktion ist das Photon (früher auch Lichtquant genannt) als Austauschteilchen beteiligt. Elektromagnetische Wellen sind immer bereit, sich aufgrund ihre Ladung mit der Umgebung auszutauschen. Das unterscheidet sie fundamental von den Gravitationswellen (sie sind auf diesem Ohr sozusagen taub). Insofern sind die Erwartungen an die Erforschung der Gravitation höchst gespannt: Wo sind da Gemeinsamkeiten, wo unüberbrückbare Distanzen? Gemeinsam ist ihnen, daß sie sich über (mehrdimensionale) Felder ausbreiten.
Zunächst einmal: Was ist ein Feld – und kennen wir Phänomene, die uns den Begriff Feld etwas näher bringen? Nun, binden wir ein Seil von einigen Metern Länge an der Wand fest und lassen es zum Spaß schwingen. Bewegt sich das Seil? Ja, die Berge und Täler abwechselnd nach oben und unten – aber das Seil kommt nicht vom Fleck! Oder die Newtonsche Schaukel: Fünf eiserne Kugeln hängen nebeneinander an einer Stange, alle berühren sich auf gleicher Höhe. Nun heben wir rechts die erste Kugel ein wenig an und lassen sie wieder fallen. Sie trifft auf ihre Nachbarkugel, die sich (theoretisch) überhaupt nicht rührt. Statt dessen saust die letzte Kugel links los, etwa bis zu der Höhe, zu der man die erste Kugel gehoben hat. Nun fällt die fünfte Kugel zurück, gleich saust die erste wieder hoch – nun also die Szenerie in umgekehrter Richtung und sofort – bis in alle Ewigkeit? Theoretisch ja. Praktisch nein. Und naturphilosophisch: nie. Inzwischen haben sich nämlich die drei mittleren Kugeln zusammengetan und schunkeln immer lustiger hin und her – theoretisch unerlaubt, jedoch diszipliniert, nah beieinander wie schon am Anfang. Was lehrt uns die Physik: Wie beim schwingenden Seil wird auch hier etwas bewegt, ohne fortgeschafft zu werden. Was demonstriert wird, das ist der elastische Stoß – jedem Billardspieler geläufig. Es wird keine Materie transportiert, sondern Energie weitergegeben. Die Kugeln, wiewohl aus hartem Stahl, sind trotzdem elastisch genug zu geringsten, zeitweisen Dellen in ihrer Oberfläche. Halt! Das Wort Delle ist falsch. Die Weitergabe der kinetischen Energie von der ersten auf die zweite und von dieser auf die dritte Kugel gelingt ja nur aufgrund einer Rückfederung von der entgegengesetzten Seite, das heißt, die Kugeln bekommen beim Stoß keine Delle, sondern werden homogen verformt. Eigentlich handelt es sich beim elastischen Stoß um ein makro-quantenmechanisches Phänomen. Beim unelastischen Stoß, etwa zwischen drei Semmelknödeln, gibt es tatsächlich ein Delle, und der angestoßene Knödel denkt nicht daran, seinem Nachbarn auf der anderen Seite einen Rippenstoß zu versetzen, damit er diesen weitergibt. Letztes Beispiel zum Begriff Feld: Ein kleiner Stein fällt auf die völlig glatte Wasserfläche eines Teichs, die dadurch gestört wird. Von der Störstelle breiten sich konzentrisch Wasserwellen aus – theoretisch, bis sie am Rand des Teichs gebremst werden. Dort verwandelt sich der Rest an potentieller (gespeicherter) Energie in kinetische Energie in Form eines leichten Schäumens. Wiederum wird nur Energie – die Energie des fallenden Steins weitergegeben. Begegnet die Welle etwa einem Korken, so wird sie diesen überrollen und unangefochten weitereilen. Materie verändert ihre örtliche Position nicht. Theoretisch! Und jetzt der Einwand: Die Natur kennt keine exakt 100 %. Das wäre ein Grenzwert wie unendlich oder null. Grenzwerte liegen außerhalb unserer erfahrbaren Welt. 99.999… % sind kein Grenzwert. In unseren Beispielen wird immer auch ein wenig Materie in der Richtung der Welle irreversibel bewegt. Deshalb schunkeln die drei mittleren Kugeln immer heftiger, und der Korken auf dem Teich wird irgendwann das Ufer des Teichs erreichen.
Auch in einem Elektromagnetischen Feld wird nur Energie, jedoch keine Materie transportiert – es sei denn, es tritt ein Ereignis ein, nach dem gemäß E = mc² aus dem Nichts Materie produziert wird. Das geschieht niemals vor unseren Augen, aber ständig in Teilchenbeschleunigern. Trotzdem: auch ohne Materie ist der Raum nicht leer. Es gibt die hübsche Anordnung (in unserem Optischen Kabinett zu besichtigen), wo eine Erdkugel frei in der Luft schwebt. Was früher noch eine attraktive Nummer von Illusionisten war (wie die Schwebende Jungfrau), da blicken heute kleine Mädchen und Buben gleich durch: aha, Magnetismus! Als junger Mensch wurde ich zweimal auf härtere Weise belehrt: Nach einer sommerlichen Schneewanderung in den Tiroler Alpen und ein andermal im Liegestuhl an Deck eines Dampfers von Marseille nach Tunis: Ich erlitt einen fürchterlichen Sonnenbrand durch reflektiertes (UV) Sonnenlicht. Ein Raum ist niemals leer. Die Frage lautet nun: Gilt das auch für Gravitationswellen, daß sie ein feldmäßiges Medium zu ihrer Fortbewegung brauchen – oder reicht ihnen die gewaltige Macht ihrer himmlischen Kolosse, die Raumzeit zu verbiegen?
c) Elektroschwache Wechselwirkung wurde 1934 von Enrico Fermi (1901-1954) als fundamentale Naturkraft erkannt. Sie repräsentiert Reaktionen zwischen Teilchen bei radioaktiven Prozessen, so beispielsweise die Emission von β-Strahlen (Elektronen). Von entscheidender Bedeutung ist die Rolle der Schwachen Wechselwirkung bei der Kernfusion, das heißt die Umwandlung von Wasserstoff in Helium. Es sind Umwandlungen innerhalb der Leptonen oder der Quarks möglich, nicht aber zwischen Leptonen (Elektronen, Positronen, Neutrinos) und Quarks (Protonen, Neutronen, α-Teilchen bei Kernfusion). Als Austauschteilchen wirken Bosonen (z.B. Photonen; treten hier auch als γ-Strahlung auf). Die Reichweite der Schwachen Wechselwirkung ist gering: etwa 10-18 m.
d) Starke Wechselwirkung wurde schon in den 20er Jahren postuliert: Man suchte nach einer Lösung für das Paradox, wie ein Gebilde wie der Atomkern, dicht gepackt mit positiv geladenen Protonen, stabil sein konnte. Es mußte eine sehr starke Kraft existieren, die den Zusammenhalt des Kerns erzwang. Erst in den 70er Jahren, als sich das Standardmodell der Teilchen herauskristallisierte, wurde auch die Starke Wechselwirkung nachgewiesen. Ihre Reichweite beträgt 10-15 m. Die fundamentalen Elementar-teilchen sind nicht mehr Protonen und Neutronen, sondern Quarks, aus denen sich letztere aufbauen. Protonen und Neutronen sowie ihre Anti-Partner faßt man unter dem Sammelnamen Hadronen zusammen. Die Austauschteilchen der starken Wechselwirkungskräfte sind im Prinzip masselose Bosonen, werden jedoch als Gluonen bezeichnet. Im Hinblick auf die Starke Wechselwirkung schreibt man Quarks wie Gluonen charakteristische Eigenschaften zu, die zur Erklärung des Phänomens herangezogen werden. Sie werden durch die Quantenchromodynamik (QCD), eine Feldtheorie, beschrieben.
Quarks und Gluonen tragen eine sogenannte Farbladung. Diese hat nichts mit Farbe zu tun, außer daß es sich bei den Wechselwirkungen um eine Analogie der additiven Farbmischung handelt. Eine konkrete Vorstellung verbindet sich damit nicht. Die qualitativ unterschiedlichen Ladungen nennt man rot, grün und blau, die der Antiteilchen anti-rot, anti-grün und anti-blau. Die Farben und Anti-Farben addieren sich jeweils zu Null (man denke an die Spektralfarben!). Null-Ladung erhält man auch durch Kombination einer Farbe mit ihrer Antifarbe. Es sind Kombinationen von Ladungslöschungen möglich, die zu höhermassigen Teilchen führen, z. B. Pentaquarks. Andererseits können Quarks und Gluonen nie frei auftreten: Sie sind gefangen in ihrem Energiekäfig (Confinement). Um diesen zu sprengen, müßten Kollisionen von hoher Energie herbeigeführt werden, wobei ganz andere Prozesse als die erwarteten stattfänden, z.B. Erzeugung von Teilchen mit enorm hoher Masse – allerdings auch sehr kurzer Lebensdauer).
Als ich meinen cholerischen Physiklehrer einmal nervte, weil ich mir irgendein physikalisches Phänomen nicht erklären konnte, verlor er die geduld. Er herrschte mich an: Die Physik erklärt nicht, die Physik beschreibt. Der Anschiß war für mich ein Schlüsselerlebnis. Mein Denken nahm von da an, ohne daß es mir recht bewußt wurde, eine andere Richtung: Aufgabe der Anschaulichkeit, ja Aufgabe der Möglichkeit wahrheitsgemäßer Aussagen überhaupt. Unsere ganze objektive Realität sind Modelle - und nur das. Also Denken in Modellen, unter Verzicht auf weiter reichende Vorstellungen. Und je tiefer unser Blick in den Makrokosmos über uns (Einstein und das Weltall) oder, umgekehrt, in den Mikrokosmos um uns (Planck etc. und die Quantenszene) eindringt, um so abstrakter werden selbst unsere Modelle von dem Erscheinungsbild der Welt. Wir können das, was wir über unsere immer empfindlicheren Meßgeräte an Kenntnissen gewinnen, kaum noch sprachlich formulieren.
Als Werner Heisenberg 1927 seine Unschärferelation bekannt machte, gab es einen gewaltigen Ruck in der Schar der theoretischen Physiker. Es war ein kühner Schritt: die Aufgabe der strengen Bedingung der Kausalität. Die makroskopische Gewißheit, daß jede Ursache unter identischen Voraussetzungen stets nur eine vorhersehbare Wirkung hervorbringt, sollte in der Atomistik nicht mehr gelten. Es war der Abschied vom Bohrschen Atommodell. Elektronen waren nun keine klaren, kreisenden Pünktchen mehr. Zum ersten Mal ließ einen die Vorstellung im Stich: Man sprach von wolkigen (verschmierten) Gebilden, die man nicht mehr lokalisieren konnte. Man ging noch weiter: Das, was da den Atomkern umkreiste, waren Schwingungsgleichungen, die sich in ihrem Energiegehalt unterschieden. Die Zweifler hatten mit ihrer Skepsis subjektiv recht. Aber auch die anderen, die die Zeichen der Zeit begriffen. Man hatte es mit einem Phänomen zu tun, das sich jeder konkreten Vorstellung entzog. Die Diskussionen, wie etwa die Kopenhagener Interpretation, hauptsächlich zwischen Heisenberg und Bohr, oder zwischen Born und Einstein, führten auch zu semantischen Problemen. Heisenbergs revolutionäre Idee war schwer in Worte zu fassen, hatte Konsequenzen für die Naturphilosophie – und die Religion. Die Wissenschaftler standen zu ihrer Theorie, aber sie galt nur unter Quantenbedingungen. Es bedeutete nicht, daß die Vorgänge in der Welt nun nicht mehr determiniert seien. Die katholische Kirche mochte sich bestätigt fühlen: Der Mensch behielt seinen freien Willen. Eine endlose Geschichte.
Die Fachleute argumentierten nüchterner. Aus der Quantenphysik hatte sich ergeben, daß sich – anders als von der klassischen Physik gewohnt – bei gewissen Entitäten nun nicht mehr komplementäre Eigenschaften mit gleicher Exaktheit bestimmen ließen. So etwa bei einem Elektron sein Impuls (bzw. Energie) p (kgm/s) oder der Ort x (m), wo es sich aufhielt – nicht mehr beides. Es galt Δx. Δp ≥ h/2π. Es gab auch andere komplementäre Observablen dieser Art: z. B. Energie/Zeit-Unschärfe. Das bedeutet: Bei vollständiger Bekanntheit der einen Variablen kann nichts Bestimmtes ausgesagt werden über den Zustand der andern. Alle Zustände sind gleichwahrscheinlich. Es gab keine strikte Kausalität mehr, in der Quantenmechanik spielten jetzt Zufall und Wahrscheinlichkeit mit. Seltsam – es schien intuitiv einzuleuchten. In ihren Kopenhagener Gesprächen suchten Bohr und Heisenberg, Richtlinien zum Verständnis zu formulieren damit die Forschung geordnet weiter laufen konnte:
a) Klassische Begriffe. Auf ihre Benutzung wird nicht verzichtet, ein Bedeutungswandel muß jedoch hingenommen werden, Impuls und Ort erhalten neue Definitionsgrenzen.
b) Komplementarität: Raumzeit-Darstellung und Kausalität können nicht gleichzeitig erfüllt sein.
c) Ganzheitlichkeit der Quantenphänomene. Durch unterschiedliche Messungen kann ein Quanten-teilchen sein gesamtes Verhalten ändern.
Divergierende Meinungen hielten an – zum Teil bis heute. Heisenberg hielt ursprünglich den Einfluß der Messung auf den Zustand des Teilchens für die Ursache der Unbestimmtheit von Impuls bzw. Ort.
Bohr beharrte darauf, es handele sich um einen prinzipiellen Quanteneffekt. Vorsichtig beschränkte man die Unschärferelation auf den quantenmechanischen Untersuchungsbereich. Nichts sei darüber gesagt, daß auf eine generelle Indeterminiertheit in der Natur zu schließen wäre. Albert Einstein wollte den Verzicht auf die Kausalität zugunsten von Wahrscheinlichkeiten partout nicht hinnehmen (der Alte würfelt nicht). Er vermutete die damalige Quantenmechanik als unvollständig – möglich, daß verborgene Variablen oder Konstanten existierten (wofür es keine Hinweise gab). Einstein blieb bei seinen Zweifeln und wurde so wider Willen zum (Früh-)Klassiker.
Physikalische Theorien bedienen sich geeigneter Modelle, die ein möglichst getreues Abbild von empirischen Beobachtungen wiedergeben. Sie lassen sich durch mathematische Funktionen beschreiben, die Voraussagen auf neue Beobachtungen erlauben. Sofern das Modell in seiner Rohform durch Einführung von zusätzlichen Parametern den Beobachtungen angepaßt werden soll, müssen einleuchtende physikalische Begründungen beigebracht werden. Andernfalls wird die Theorie fallen gelassen oder ihr Geltungsbereich eingeschränkt. Der Theorie wird somit ein Bedeutungsschema zugeordnet. In der klassischen Physik war die Zuordnung von Entitäten der realen Welt relativ selten ein Problem. Wenn doch, wie etwa bei der Perhihelbewegung des Planeten Merkur, führte das letztlich zum Sturz oder starken Einschränkung des vorhergehenden Modells – hier der Newtonschen Himmelsmechanik. Es ist ein Grundsatz des exakt-wissenschaftlichen Arbeitens, daß ein einziger gewichtiger Widerspruch genügt, um eine bis dato bewährte Theorie zur Fall zu bringen. Die Geschichte der Irrtümer in den exakten Naturwissenschaften ist so spannend wie ihre Erfolgsgeschichte – zu der die Irrtümer ja zählen. Berühmte Beispiele sind:
a) Das Ptolemaische geozentrische Weltsystem. Die Planetenbewegungen ließen sich zufriedenstellend beschreiben – nach Einführung der (astronomisch unsinnigen) Epizyklen.
b) Bei der Verbrennung nahm man an, daß Wärme als eine Substanz mit Gewicht entweicht. Man gab ihm den Namen Phlogiston. Lavoisier stellte fest, daß Asche von verbrannten Metallen schwerer wog als das Metall selbst. Phlogiston müßte demnach ein negatives Gewicht haben – was unsinnig war. So wurde der Sauerstoff als Partner der Verbrennung bzw. Oxidation ermittelt.
c) Lange galt es als ausgemacht, daß chemische Reaktionen, bei denen Wärme entwickelt wird – sogenannte exotherme Reaktionen – freiwillig abliefen. Bis man feststellte: Einige Reaktionen liefen freiwillig ab unter Abkühlung. Das Prinzip war also falsch. Man fand heraus, daß bei chemischen Reaktionen nicht nur Wärme, sondern auch Arbeitsleistung produziert werden konnte – sogenannte exergonische Reaktionen, selbst wenn damit eine Abkühlung verbunden war. Eine typische Arbeits-leistung war die Entbindung von gasförmigen Reaktanten gegen den Atmosphärendruck.
d) Das jüngste Beispiel eines zähen Irrtums ist der Äther. Entgegen aller klassischen Erfahrung, daß ein bewegter Teilchenstrom immer an Materie gebunden ist, schien das für Licht nicht zu gelten: Es sauste mit ungeheurer Geschwindigkeit durch den leeren Weltraum. So erfand man das nicht nachweisbare, hochverdünnte Fluidum Äther. Im berühmten Michelson-Morley-Experiment 1887 wurde bewiesen, daß Licht keine materielle Trägersubstanz braucht. Das Wort materiell sollte man nicht unterschlagen: Ohne immaterielles elektromagnetisches Feld kein Licht! Der Äther ist uns treu geblieben – in unserem poetischen Wortschatz. Als das Radio noch neu war, empfingen wir die Sendungen mittels Ätherwellen,
und für den romantischen Frühaufsteher schwang sich die Lerche in den Äther…
Hier eine ernste Vorwarnung: Ein Modell kann nach allerlei Manipulationen erwartete Resultate bringen – und trotzdem ein Irrweg sein. Mit der Heisenbergschen Unschärferelation war die klassische Physik auch in eine semantische Krise geraten. Was bedeutete nun was? Niels Bohr vertrat einen harten Schnitt: Keine Beziehung zwischen dem quantenmechanischen Formalismus und den Objekten der klassischen Realität – ausgenommen die Vorhersage der Wahrscheinlichkeiten von Meßwerten. Für diese nahm man noch eine zumutbare Objektivität an. Man präzisiert, um sich gegen Mißdeutungen zu wehren: Was beobachtet worden ist, existiert gewiß. Bezüglich dessen, was nicht beobachtet worden ist, haben wir jedoch die Freiheit, Annahmen über dessen Existenz oder Nichtexistenz einzuführen. Diese sachliche Freiheit des Diskurses sei nötig, um Paradoxien zu vermeiden.
Die Euphorie um die Weltformel beginnt einer Ernüchterung zu weichen. Man ist über die Physik hinaus an philosophische Grenzen gestoßen. Diese Einsicht vermittelt sich nicht jedermann so ohne weiteres: Nach wie vor ist die Fan-Gemeinde der String-Theorie(n) groß. Auch die Loop-Theorie hat ihre Anhänger. Es ist noch genügend Knetmasse für weitere Optionen da. Von der String Theorie will man freilich nicht lassen. Überraschend spielen Emotionen eine bedeutsame Rolle. Wenige scheint diese Aussicht zu bekümmern: Gelänge die Entdeckung einer Weltformel, die alle Erwartungen vollauf erfüllt, würde eine Phase schlimmer Depression folgen. Es gäbe zunächst nichts mehr zu tun. Ist man mit der Weltformel in eine Sackgasse geraten? Mit der Weltformel, so wie man sie sich gedacht hatte: ganz sicher. Dieser Illusion braucht man nicht länger anzuhängen. Was hat man denn von einer Weltformel erwartet – eine messianische Botschaft darüber, was es mit dem Universum auf sich hat?
Man sollte ein wenig Fachkenntnis besitzen, um zu verstehen, was der Fachmann erwartet hat:
a) Nach dem Standardmodell der Elementarteilchen ein kosmologisches Standardmodell, mit dem sich alle Naturkräfte, einschließlich Gravitation, berechnen lassen.
b) Was passierte beim Urknall und wohin expandiert das Universum? Ein Werden und Vergehen in Zyklen? Oder eine Geschichte ohne Anfang, ohne Ende?
c) Was hat es mit der Dunklen Materie/Energie auf sich? Liegt darin die Lösung aller offenen Fragen?
Wir können nur allgemein antworten: Wir haben es im Wesentlichen damit zu tun, Unvereinbares unter einen Hut zu knüppeln. Ob ich zwei oder mehrere Theorien zu einer einzigen Weltformel zusammen-fügen kann, hängt davon ab, ob sie irgendwie zueinander passen. Das ist zunächst eine Frage des Maßstabs: Können Sie etwa auf ein und derselben Waage einen Sack mit zwanzig Kilo Kartoffeln und ein paar Milligramm eines – sagen wir – Opiats aus der Apotheke korrekt abwiegen? Sehen Sie, solche Unterschiede erwarten uns bei den sehr schwachen Gravitations- und den mittelstarken elektro-magnetischen Wellen oder bei den letzteren und den starken Kernkräften. Andererseits, den sehr schwachen spezifischen Gravitationskräften entsprechen Himmelskörper von riesiger Masse, und den sehr starken spezifischen Kernkräften winzige Atome. Aber das ist ja nicht alles. Die String-Theorie kann auf den Parameter Zeit nicht verzichten, obwohl es im All – mangels Bezugssystem – keine universale Zeit geben darf. Die String-Theorie braucht für ihre Variablen 11 Dimensionen. So kommen die Paralleluniversen ins Gespräch. Reden wir noch kurz von den Singularitäten:
Sowohl die Allgemeine Relativitätstheorie – für den stellaren Makrokosmos – als auch die Quanten-theorie – für den atomaren Mikrokosmos – leisten für jeweils ihren Kosmos das Bestmögliche. Kritisch wird es, beispielsweise, bei der Annäherung an ein Schwarzes Loch: Die Raum-Zeitkrümmung nimmt zu und geht gegen Null, und die Gravitationskraft strebt gegen Unendlich. An der Stelle versagt die Allgemeine Relativitätstheorie: Sie stößt auf eine Singularität – diese läßt sich nicht überbrücken. Das Phänomen ist nichts Neues, es ist aus der Schul-Mathematik bekannt. Daher verwundert der heftige Eifer der String-Fans, es wider die Vernunft mit Tricks zu versuchen. Es funktioniert nicht. Dagegen wehrt sich auch der gesunde Menschenverstand. Überdies haben wir im Schwarzen Loch einen quantenmechanisch völlig unbekannten Zustand, von dem wir nur zu wissen glauben, daß er strukturlos ist. Mit welcher Art von Parametern wollten wir sie füttern - die ohnehin schon geplagte String-Theorie (es müßte String-Theorien heißen, wegen der Freizügigkeit der Wahl der Parameter existieren etliche Varianten)? Und um es ganz deutlich zu sagen: Jenseits der Planckschen Länge (und anderer Planckscher Grenzen) existiert für uns keine wahrnehmbare Welt.
Dabei liest sich die Geschichte der String-Theorie fast wie eine Romanze. Das Wort vom eleganten Universum (Brian Greene) macht die Runde. Was bedeutet diese Eleganz? Reduktion der Komplexität auf einfache Grundstrukturen. Damit wären, beispielsweise, Stolperfallen wie Singularitäten ausgeschlossen, supersymmetrische Objekte bevorzugt, etc. Hier meldet sich gleich ein prinzipieller Einwand, den die Natur selbst offenbar beherzigt: Reduktionismus, wie diese philosophische Haltung genannt wird, bedeutet stets eine Verarmung an Vielfalt. Das komplementäre Gegenteil ist Emergenz, pointiert ausgedrückt durch den Satz: Das Ganze ist mehr als die Summe seiner Teile. Ein Rückschluß vom Ganzen auf seine Ursprünge ist unmöglich – damit ist auch der Reduktionismus in seiner kompromißlosen Form widerlegt.
Einher mit der Vereinfachung geht die Vereinheitlichung. Diese zwanghafte Forderung ist neu, und in der klassischen Physik nicht üblich – es sei denn zwei oder mehrere Phänomene hätten etwas Fundamentales gemeinsam: So etwa die Entdeckung des mechanischen Wärmeäquivalents, oder des Elektromagnetismus. Sonst wird auf unterschiedlichen Gebieten mit den jeweils spezifischen Theorien gearbeitet. Sie müssen einander nicht widersprechen, sind aber nicht vereinheitlicht. Wozu auch, wenn eine Liaison keinen Gewinn an Erkenntnis bringt? Es ist nicht einzusehen, warum eine pragmatische Trennung zwischen Allgemeiner Relativitätstheorie und Quantenmechanik nicht beibehalten werden könnte. Ist dieses Bedürfnis nach Harmonie mit der Schöpfung nicht ein wenig überzogen? Was ist für das aufgeweckte Publikum neu an der String-Theorie: In ihren Modellen sind die dimensionslosen Elementarteilchen verschiedener Energieniveaus durch lineare, also eindimensionale, schwingende Saiten ersetzt. Die Schwingungsfrequenz entspricht der Teilchenenergie. Mit den Feinheiten der Unterschiede zur konventionellen Elementarteilchen-Mechanik ist der Laie überfordert. Vielleicht ist mit den schwingenden Saiten die vermißte Anschaulichkeit zurückgekehrt, ja sogar etwas wie Klang, Musikalität – im Vergleich zu den wolkigen, verschmierten, konturlosen Teilchenwahrscheinlichkeiten. Für den nüchternen Intellekt sind alle denkbaren Modelle gleich weit von der Wahrheit entfernt – diese, wie ein Schwarzes Loch, ist für uns nicht existent.
Die Kritik nimmt zu. Sie richtet sich ganz klar gegen die Leute, die mit der String-Theorie professionell umgehen. Daß sich ein Durchbruch nicht einstellen will, läßt sich als Argument nicht entkräften. Schlimmer noch der Vorwurf: Die starre Fixierung auf die String-Theorie lenke von möglichen Alternativen ab. Es fehle selbst an einer neuen Mathematik. Mit der derzeit angewandten Störungsrechnung, durchaus bewährt in der Himmelsmechanik, lasse sich für die String-Theorie(n) keine Gleichung aus einem Guß ableiten. Man müsse sich mit Approximationen behelfen. Unbehagen bereite die Notwendigkeit eines 11-dimensionalen Raums. Scharf kritisiert wird der willkürliche Umgang mit Anpassungs-Parameters, die wohl nicht immer überzeugend interpretiert würden. Es gibt das Problem der Uneindeutigkeit. Schwer wiegt der Vorwurf: die Forderung des nach Falsifizierbarkeit (nach Popper) wird nicht erfüllt. Es ließe sich nicht einmal nachweisen, daß das Gleichungssystem falsch sei.