Bei der Entwicklung der Urknalltheorie tauchte ein Problem auf, dass sich bis heute nur unzureichend erklären lässt. Woher kommen die Unterschiede in der Energie- und Materiedichte, wenn sich das Universum aus einem unendlich dichten Punkt gebildet hat, von dem aus es sich hätte homogen ausdehnen müssen?
Nachdem Edwin Hubble 1929 beobachtet, dass sich Galaxien voneinander entfernten, setzte sich die Vorstellung durch, dass sich das Universum aus einem extrem dichten Zustand heraus gebildet haben musste. Zuvor hatte es bereits theoretische Überlegungen, u.a. von George Lemaître, in diese Richtung gegeben, die auf den Feldgleichungen der allgemeinen Relativitätstheorie basierten. Albert Einstein selbst konnte mit diesen Lösungen seiner eigenen Theorie zunächst wenig anfangen und lehnte sie ebenso ab wie die Existenz schwarzer Löcher, die sich ebenfalls als extreme Lösungen aus seinen Gleichungen zu ergeben schienen.
Während sich die Urknalltheorie langsam durchsetzte wurde die Frage interessant, wie sich aus einer unendlich dichten Singularität bei einer Ausdehnung Unterschiede in der Materiedichte ergeben können. Zu erwarten wäre eine homogene Ausdehnung von Energie und nach Abkühlung auch von Materie. Dann aber gäbe es weder Sterne noch Galaxien noch sonst irgendetwas außer einer völlig gleich verteilten Energie und Materie. Anders ausgedrückt gäbe es auch niemanden, der sich darüber Gedanken machen könnte, da es, abgesehen von der andauernden Ausdehnung und Abkühlung, absolut keine Entwicklung gegeben hätte.
Glücklicherweise beobachten wir das
Gegenteil. Schon die sogenannte W-Map, die Karte der kosmischen
Mikrowellenhintergrundstrahlung, zeigt deutlich messbare Unterschiede in der
Verteilung der Energie im frühen Universum. Und Beobachtungen des Kosmos zeigen,
dass die Materie und damit die Galaxien nicht gleichmäßig verteilt sind.
Galaxien ballen sich in sogenannten Haufen und Superstrings zusammen, während
andere Gebiete vergleichsweise leer sind. Die Gründe dafür sind unklar.
Eine
Erklärung läuft darauf hinaus, dass es bereits Unterschiede in der Dichte des
Ursprungspunktes vor dem Beginn der Ausdehnung gegeben haben muss und zieht hier
Parallelen zu den Quantenfluktuationen, die aus der Quantentheorie bekannt sind.
Allerdings wird das Problem hierdurch lediglich verschoben und bietet keine
wirkliche Erklärung.
Einen mathematisch brillanten Ansatz bietet die Theorie der kosmologischen Inflation, die 1981 durch Alan Guth vorgeschlagen wurde. Hierdurch lassen sich einige Fragen klären, die sich alleine durch die Relativitätstheorie nicht erklären lassen. Hierzu zählt auch die Frage der Herkunft der Dichtefluktuation, die bereits in einem extrem frühen Stadium der Expansion aufgetreten sein muss. Diese Erklärung hat jedoch einen Haken: Sie erfordert, dass für eine unvorstellbar kurze Zeit die Ausdehnung des beginnenden Universums mit Überlichtgeschwindigkeit erfolgt sein muss. Bedenkt man, dass die Lichtgeschwindigkeit die vielleicht wichtigste Konstante in der relativistischen Mathematik darstellt, die in der auch bei Laien bekannten Formel E=mc² kumuliert (c = Lichtgeschwindigkeitskonstante), dann erscheint diese Erklärung sehr gewagt. Gerade in der Anfangszeit der Expansion, als es lediglich Raum und Energie gegeben hat, dürfte dieses Verhältnis von entscheidender Bedeutung gewesen sein. Wenn es also eine einfachere Erklärung für diese Dichtefluktuation geben sollte als die Außerkraftsetzung einer grundlegenden Naturkonstante, dann dürfte diese wahrscheinlich richtig sein.
Kommen wir auf eine grundlegende Eigenschaft der mathematischen Modelle zu sprechen, die die heutige Physik haben. Egal, ob relativistisch oder nach Newtons Gravitationsgesetzten, sind alle Gleichungen linear. Damit ist hier gemeint, dass alle Ausgangswerte proportional zur mathematischen Formel ein zu erwartendes Ergebnis produzieren. Das können natürlich nicht nur Geraden sein, sondern das trifft auch auf alle exponentiellen Funktionen zu. Solche Formeln sind stetig und differenzierbar. Es ist außerdem egal, in welche Richtung man rechnet. Man kann folglich aus dem Ergebnis einer Berechnung immer auch den Anfangswert bestimmen. Bezogen auf die Physik bedeutet das, dass alle mathematisch beschriebenen Vorgänge auch rückwärts ablaufen können. Zumindest theoretisch. Denn selbst einfachste Experimente zeigen, dass sich die Natur weigert, dieser Reversibilität nachzukommen. Man darf daher festhalten, dass es völlig exakte Beschreibungen der Natur gibt, die nur in eine Richtung funktionieren, obwohl es eine beidseitige Lösung gibt. Ein besonders interessanter Fall ist die Zeit. Niemand bezweifelt, dass sie nur in eine Richtung abläuft, obwohl die mathematischen Beschreibungen der allgemeinen Relativitätstheorie durchaus auch ein Rückwärts laufen erlauben. Zeit kann nur schneller oder langsamer ablaufen und maximal zum Stehen gebracht werden, wenn man sich auf dem Ereignishorizont eines Schwarzen Lochs befindet. Warum das so ist, kann die Physik bis heute nicht erklären.
Da die lineare Mathematik also offenbar an ihre Grenzen stößt, soll hier untersucht werden, was sich durch die Anwendung nichtlinearer Mathematik ergeben kann.
Nichtlineare Mathematik, bei der Berechnungen scheinbar willkürliche Ergebnisse ergeben, wird in der Chaostheorie behandelt. Chaos war zur Zeit von Albert Einstein noch kein Forschungsthema, allerdings zumindest ansatzweise bereits bekannt. Denn Henri Poincaré hatte bereits vor der Jahrhundertwende bewiesen, dass die Newtonschen Gravitationsgesetze nur in genau einem Fall zu exakten Ergebnissen führen: Nämlich in einem Zweikörpersystem. Man darf sogar weiter gehen. Ein lineares Planetensystem würde zu Resonanzen führen, die es über kurz oder lang auseinanderreißen würden. Nur ein nichtlineares Planetensystem kann dauerhaft stabil sein. Weder mit den Gravitationsgesetzen noch mit der Relativitätstheorie kann man die Bewegung unseres Planetensystems exakt berechnen. Das gilt natürlich auch verallgemeinert: Da sich über die Gravitation jedwede Masse des Universums beeinflusst und damit die Anzahl der beteiligten Elemente größer als Zwei ist, kann die Bewegung der Massen nicht exakt berechnet werden. Mit anderen Worten: Das Universum verhält sich chaotisch. Warum es sich im Wesentlichen dennoch mit der linearen Relativitätstheorie beschreiben lässt, wird später noch erklärt werden.
Wichtig festzuhalten ist hier, dass der Kosmos den Gesetzen der Chaostheorie folgt. Denn nach dem Beweis von Poincaré folgt jedes Mehrkörpersystem, dessen Anzahl der beteiligten Elemente mehr als zwei beträgt, den Gesetzen der Chaostheorie. Was sich beängstigend anhören mag, ist in Wahrheit Grundlage unserer Existenz. Denn, wie noch zu zeigen sein wird, ist Chaos weniger zerstörerisch, als der Begriff nahelegt. Chaos ist in erster Linie kreativ!
Betrachten wir zwei einfache Beispiele in Größenordnungen, die wir uns relativ einfach vorstellen können.
Beispiel 1:
Nehmen wir ein Gefäß, einen
Glaskasten, der exakt in der Mitte durch eine Trennscheibe in zwei gleich große
Hälften geteilt wird. In der Trennscheibe sitzt ein Ventil, dessen Größe und
Durchlass ebenfalls bekannt sind. In der linken Hälfte befindet sich eine exakt
bemessene Menge eines Gases, von dem wir die Anzahl der Moleküle und deren
Temperatur kennen. In der rechten Hälfte befindet sich ein absolutes Vakuum,
also nichts. Da es sich um ein Gedankenexperiment handelt, gehen wir davon aus,
dass dieses absolute Vakuum tatsächlich möglich wäre.
Öffnet man jetzt das Ventil, wird das Gas hindurch strömen. Das Ergebnis dürfte nicht überraschen. Zuerst schnell, dann immer langsamer, wird das Gas in die rechte Kammer strömen, dabei abkühlen und sich schließlich homogen verteilen. Dass dabei auch Turbulenzen auftreten, die eine vorübergehende Inhomogenität in der Temperatur- und Dichteverteilung verursachen, sei am Rande erwähnt. Wichtig ist bei diesem einfachen Experiment, dass sich der Druck- und Temperaturausgleich exakt berechnen lassen. Diese Parameter hängen ausschließlich von den Ausgangsbedingungen und der Größe der Ventilöffnung ab und ergeben, graphisch dargestellt, eine exponentiell abnehmende Kurve. Theoretisch kann man, wie weiter oben bereits beschrieben, diesen Vorgang auch anders herum berechnen und käme, ausgehend von einem in beiden Kammern homogen verteilten Gas, exakt am Ausgangspunkt des Experiments heraus. Würde man aber versuchen, das Gas dazu zu bewegen, sich quasi von alleine wieder in eine der beiden Kammern zu begeben, käme man nicht weit. Denn obwohl das mathematisch möglich wäre rechnet niemand damit, dass sich so ein Fall tatsächlich ereignet. Hierfür gibt es physikalisch eindeutige Erklärungen, die hier aber keine Rolle spielen. Im Rahmen dieser Überlegungen geht es lediglich um den Widerspruch zwischen Realität und Mathematik.
Wiederholen wir jetzt dieses Experiment mit einer kleinen Modifikation. Die Ausgangslage ist identisch: Glaskasten, in der Mitte durch eine Trennscheibe in zwei gleiche Hälften geteilt und in der linken Kammer mit Gas gefüllt. Da es sich um ein Gedankenexperiment handelt, können wir jetzt ein einzelnes Gasmolekül farbig markieren und dabei so tun, als ob dies Markierung keinerlei Einfluss auf Masse und Energie dieses Moleküls hätte. Dieses eine Molekül soll sich exakt so verhalten wie seine ansonsten identischen Nachbarn. Öffnen wir jetzt das Ventil, wird sich das Gas daher genauso verhalten wie beim ersten Mal. Betrachten wir jetzt aber das markierte Molekül, ist es absolut unvorhersehbar, wo es sich befinden wird, wenn der Druckausgleich abgeschlossen ist. So oft wir das Ganze auch wiederholen, nie wird unser farbiges Molekül wieder an exakt der gleichen Stelle landen. Wir können auch nicht sagen, wann und in welcher Geschwindigkeit es das Ventil passiert hat, wenn es denn in der rechten Kammer auftauchen sollte. Auf Molekülebene verhält sich das Gas also chaotisch. Obwohl der Verlauf des Experiments und der Endzustand in den beiden Kammern für den kompletten Inhalt exakt berechenbar sind, verhält sich das einzelne Molekül unberechenbar. Da es sich um eine grundlegende Erkenntnis handelt, sollte man das in Erinnerung behalten. Später wird das von entscheidender Bedeutung sein.
Beispiel 2:
Stellen wir uns einen Würfel
eines radioaktiven Metalls vor. Das Material ist bekannt, aber hier
bedeutungslos. Denn was herausgestellt werden soll, trifft auf jedes radioaktive
Material zu. Unterschiedlich ist lediglich die sogenannte Halbwertszeit.
Radioaktiver Zerfall findet nach einer einfachen Formel statt. Ist die
Halbwertszeit eines Elements bekannt, ist nach Verstreichen eben dieser Zeit
exakt die Hälfte der Atome zerfallen. Stellt man die Zahl der zerfallenen oder
der verbliebenen Atome grafisch dar, ist das Ergebnis eine exponentielle Kurve.
Diese Zerfallsvorgänge laufen so präzise ab, das man daraus Datierungsverfahren
für eine Vielzahl von Materialien ableiten kann. Die Kohlenstoff-14 Datierung
ist die wahrscheinlich bekannteste. Man schaut sich dazu lediglich den
Ist-Zustand an und kann daraus rückwärts errechnen, wie der Zustand zum
Entstehungszeitpunkt gewesen ist.
Interessant an diesem radioaktiven Zerfall ist, wie im ersten Beispiel bereits gezeigt, dass sich aus dem linearen Verlauf des Zerfalls keine Aussage über das Verhalten eines einzelnen der Atome treffen lässt. Wann also ein bestimmtes radioaktives Atom in einer Masse völlig identischer Atome zerfallen wird, ist nicht vorherzusagen.
Obwohl also das einzelne Ereignis unberechenbar, also chaotisch, bleibt, kann der Vorgang, wenn man nur genügend einzelne Atome zusammen genommen betrachtet, durchaus exakt berechnet werden. Die Betrachtungsweise ändert sich also je nach relativ zur Menge der betrachteten Materie. Wie bei Newtons Gravitationsgesetzen kommt es darauf an, ob man einzelne Elemente eines System oder das System als Ganzes betrachtet.
Die Beispiele sollen zeigen, dass es durchaus keinen Widerspruch bedeutet, wenn man das Universum, und zwar vom Beginn seiner Existenz an, als chaotisch betrachtet und es dennoch mit linearer Mathematik beschreiben kann. Dass Albert Einstein mit seiner allgemeinen Relativitätstheorie 1915 die wohl bisher erfolgreichste und durch zahlreiche bestätigte Vorhersagen am besten belegte Theorie vorgelegt hat, kann nicht bestritten werden und gehört nach wie vor zu gen größten wissenschaftlichen Geistesleistungen aller Zeiten. Dennoch kann man festhalten, dass Einstein das Universum nicht vollständig verstanden hat. Dass er sich zumindest anfänglich geweigert hat zuzugeben, dass der Kosmos nicht statisch ist, sondern expandiert und dass er nicht nur aus unserer Milchstraße besteht, ist dem damaligen Kenntnisstand der Astronomie geschuldet. Aber Einstein traute auch seinen eigenen Formeln nicht. So musste er erst mühsam von der damals noch theoretischen mathematischen Möglichkeit der Existenz schwarzer Löcher überzeugt werden, die sich als extreme Ergebnisse aus seiner Theorie errechnen ließen. Georges Lemaître veröffentlichte 1927 die später als Urknall-Theorie bekannt gewordene Idee, dass der Kosmos aus einem Ursprungsereignis entstanden sein muss, um sich seitdem weiter auszudehnen. Entsprechende astronomische Beobachtungen hatte Edwin Hubble kurz zuvor veröffentlicht. Der Belgier Lemaître, der (ausgerechnet) katholischer Priester war, hatten seine Berechnungen aus Einsteins Formeln abgeleitet, die dieser aber anfangs vehement ablehnte. Für Einstein war das Universum statisch und ewig. Mit seinem Ausspruch „Gott würfelt nicht“, der einen weiten Interpretationsspielraum bietet, der von Einstein selbst nie eingeschränkt wurde, könnte auch seine Vorliebe für einfache, lineare, also berechenbare Erklärungen beinhalten. Dass Einstein ein Faible für eine elegante Mathematik besaß, dürfte bekannt sein. Dass er statistischen, wahrscheinlichkeitstheoretischen Ansätzen, wie sie in der Quantenmechanik zum Tragen kommen, zumindest skeptisch gegenüberstand, darf man zumindest vermuten. Die Anfänge der Chaostheorie – sieht man von dem Beweis Henri Poincarés bezüglich der Gravitationsgesetze ab – entstanden erst Anfang der 1960er Jahre und konnten Einstein daher nicht bekannt sein.
Zu diesem Zeitpunkt arbeitete der Mathematiker und Meteorologe Edward Lorenz an einem mathematischen Wettermodell, dass er in einem Computer zum Einsatz bringen wollte. Nachdem er sein Modell mit echten Daten gefüttert hatte, wollte er das Ergebnis überprüfen. Um Zeit zu sparen, verkürzte er die Eingabe um eine oder zwei Dezimalstellen hinter dem Komma, wobei er keine große Abweichung im Ergebnis erwartete. Statt dessen stellte er fest, dass er ein völlig anderes Resultat erhielt. Weitere Untersuchungen ergaben, dass selbst Abweichungen viele Stellen hinter dem Komma, also im Bereich von Tausendsteln und noch viel kleiner, zu völlig verschiedenen Ergebnissen führten. Später wurde das als „Schmetterlingseffekt“ bekannt: Wenn in Südamerika ein Schmetterling mit den Flügeln schlägt, kann dass das Wetter in Europa beeinflussen. Lorenz war auf den Effekt nichtlinearer Formeln gestoßen. Das Ergebnis einer Berechnung war nicht mehr in einer Beziehung zu den Ausgangswerten. Das war der Beginn der Chaosforschung. Interessanterweise bietet die Meteorologie eine Parallele zu den obigen Beispielen. Dass das Wetter sich chaotisch verhält, hatte Edward Lorenz mit seinen Computermodellen auch mathematisch nachgewiesen. Aber was war mit dem Klima? Damals noch kein Thema war der heute als gegeben angesehene Klimawandel. Die Klimaforscher gehen heute davon aus, dass Klima einer linearen Entwicklung folgt. Ansonsten hätten die Klimamodelle und damit deren Voraussagen keinen Wert. Daher setzen sowohl Meteorologen als auch Klimaforscher voraus, dass der statistische Durchschnitt des chaotischen Wetters einen linearen Verlauf ergibt. Es wird also angenommen, dass die Summe chaotischer Einzelereignisse statistisch gesehen wieder linear berechenbar wird, was dem Ergebnis der beschriebenen Experimente entspricht. Dass diese Annahme bei der Klimaforschung durchaus mit Skepsis zu begegnen ist, liegt an der hyperkomplexen, mit sehr vielen heterogenen Rückkopplungen versehenen Konstruktion des Systems und soll hier weiter keine Rolle spielen.
Einer breiten Öffentlichkeit bekannt wurde die Chaostheorie in den 1980er Jahren durch Benoit Mandelbrot. Er prägte den Begriff „Fraktal“ für die Ergebnisse der nichtlinearen Formeln und schuf durch seine Visualisierung seiner „Mandelbrotmenge“ (als Apfelmännchen bekannt geworden) eine geniale und öffentlichkeitswirksame Darstellung des Chaos. Die zugrunde liegende Formel, die Mandelbrot verwendete, ist eine Wachstumsformel, weshalb man auch in der entstehenden Grafik beliebig hinein- und herauszoomen kann. Durch die zunehmende Leistungsfähigkeit von Computern ließen sich immer neue Aspekte dieser (und später auch für interessierte Laien mit dem Computerprogramm FractInt der „Stone Soup Group“) erforschen. Als grundlegende Erkenntnisse dieser Arbeiten lässt sich feststellen, dass die Ergebnisse nichtlinearer Formeln beileibe nicht nur chaotisch sind. Sie führen aus sich selbst heraus zu Strukturen, sind also sozusagen kreativ. Nicht zuletzt diese Eigenschaft machte das Apfelmännchen so anziehend. Es ist einfach schön und faszinierend. Mandelbrot arbeitete auch heraus, dass chaotische Strukturen selbstähnlich sind. Egal, wo man hinschaut und wie tief man hineinblickt, findet man immer wieder Bekanntes. Nie das Gleiche, aber immer ähnlich.
Nimmt man die Visualisierungen der Chaosgrafiken und vergleicht sie mit tatsächlichen oder animierten Fotos der Astronomie, fallen Gemeinsamkeiten auf.
Die W-Map, die Grafik, die die Verteilung der kosmischen Mikrowellenhintergrundstrahlung zeigt, wirkt wie eine Computergrafik, die aus einer fraktalen Gleichung stammt. Vor allem aber erscheint die Darstellung der Masseverteilung im Universum mit ihren Galaxien und Superhaufen, die sich wie Fäden durch den Raum ziehen, wie die Filamente einer fraktalen Grafik zu sein. Insbesondere die Selbstähnlichkeit dieser Strukturen in verschiedenen Raumbereichen erinnert an entsprechende Grafiken. Und wenn man die Galaxien vergleicht, die sich zum Beispiel auf Bildern des Hubble in nahezu grenzenloser Zahl zeigen, dann sind diese Galaxien wenigen Typen zuzuordnen, die sich innerhalb dieser Gruppen verblüffend ähnlich sehen.
Die Vermutung, dass seit dem Urknall chaotische Kräfte wirken, ist also nicht von der Hand zu weisen. Sicher ist der Einwand, dass sich in der ersten Phase des Urknalls die entstandene Energie nicht chaotisch verhalten haben kann, weil sich diese Energie gar nicht gegenseitig beeinflusst haben kann, nicht von der Hand zu weisen. Berücksichtigt man die Eigenschaften eines chaotischen Systems jedoch, dann können die beobachteten Strukturen auch problemlos später aufgetreten sein. Eine inflationäre Phase zu postulieren ist hierzu überhaupt nicht erforderlich.
Sobald aus der ursprünglichen, hoch verdichteten Energie die erste Materie kondensierte, begann auch das Strukturen bildende chaotische Verhalten. Nimmt man diese chaotische Eigenschaft als gegeben an, lassen sich vielleicht neben der Herkunft der Strukturen im frühen Universum auch noch andere Rätsel lösen. Wenn der Urknall aus einem ultradichten Quantenpunkt heraus entstanden sein soll und sich zunächst als expandierender Energieball manifestiert hat, dann muss bei der durch die Expansion verursachten Abkühlung sowohl Materie als auch Antimaterie zu gleichen Teilen entstanden sein. Wir beobachten aber nur Materie. Wo also ist die Antimaterie abgeblieben?
So, wie chaotische Vorgänge kreativ sind und Strukturen bilden, ist vorstellbar, dass aus den gleichen Gründen etwas mehr Materie als Antimaterie gebildet wurde. Bekanntlich löschen sich beim Zusammentreffen Materie und Antimaterie gegenseitig aus und bilden gemäß E=mc² wieder Energie. Es ist also ein Rückkopplungsprozess denkbar, in dem die aus dem Zusammentreffen von Materie und Antimaterie entstandenen Energie wiederum mit einem kleinen Materieüberschuss kondensiert. Um diesen Rückkopplungseffekt lange genug möglich zu machen, bevor die Expansion des jungen Universums eine zu starke Abkühlung verursacht hat, muss die anfängliche Expansion aber wahrscheinlich erheblich langsamer abgelaufen sein als bisher allgemein angenommen wird. Dass eine inflationäre Phase, also eine ultrakurze überlichtschnelle Ausdehnung, nicht erforderlich ist, wurde bereits dargelegt. Aktuelle astronomische Beobachtungen zeigen, dass sich, entgegen aller Erwartungen, das Universum nicht immer langsamer ausdehnt, sondern sich die Expansion im Gegenteil immer mehr beschleunigt. Denkt man diesen Prozess rückwärts, muss die Ausdehnung früher folglich langsamer abgelaufen sein und damit zu Beginn am langsamsten. Daher dürfte die Vermutung, dass der Urknall wesentlich langsamer abgelaufen ist, als derzeit behauptet wird, zumindest zulässig sein.
Wir können also festhalten, dass dem Universum, obwohl es in dem linearen Modell der allgemeinen Relativitätstheorie und den darauf aufbauenden Erklärungen sehr genau beschrieben werden kann, nichtlineare, also chaotische Vorgänge zugrunde liegen. Die beobachtbaren Strukturen lassen sich durch fraktale, nichtlineare Wechselwirkungen erklären und erfordern keine überlichtschnelle inflationäre Phase.
Was ist Zeit? Die Physik hat darauf noch immer keine wirklich überzeugende Erklärung geben können. In der Relativitätstheorie besteht ein direkter Zusammenhang von Raum und Zeit: Die sogenannte Raumzeit. Aber für diese Überlegungen hier muss diese Frage nicht beantwortet werden. Hier geht es „nur“ darum zu erklären, warum sie nicht rückwärts laufen kann. Es ist aber beinahe schon amüsant, welche Parallele die menschliche Psyche mit der physikalischen Beschreibung aufweist. Wenn wenig oder gar nichts passiert, scheint die Zeit endlos langsam zu vergehen; wir langweilen uns. Aber wenn wir uns gut unterhalten oder etwas interessantes tun, verfliegt die Zeit geradezu. Genauso ist der physikalische Zusammenhang. Bei schnellen Veränderungen vergeht Zeit schnell. In der Nähe großer Massen und bei hohen Geschwindigkeiten wird Zeit erheblich langsamer und kommt am Ereignishorizont eines schwarzen Lochs sogar (fast) zum stehen. Interessanter Nebengedanke: Da sich Licht eben mit Lichtgeschwindigkeit bewegt und die Zeit bei dieser Geschwindigkeit gemäß der allgemeinen Relativitätstheorie bei Null liegt, altert Licht nicht.
Anders ausgedrückt, Zeit ist nichts als die unumkehrbare Änderung eines Systems an sich. Und da diese Änderungen in dem oben beschriebenen fraktalen, chaotischen „System Universum“ immer nichtlinear und damit nicht reversibel sind, ist Zeit auch niemals umkehrbar. Man muss sich also die Zeit nicht als eine zusätzliche Dimension vorstellen und man muss wahrscheinlich auch keine 11 Dimensionen aus der Stringtheorie dazu erfinden, um das physikalische Geschehen zu erklären.
Auch das wurde weiter oben bereits dargelegt: Die Naturgesetze sind zeitsymmetrisch. Danach kann man alles, was geschehen ist, mathematisch rückwärts ablaufen lassen und damit zumindest theoretisch jeden beliebigen Zustand in der Vergangenheit wiederherstellen. Alle Informationen, die jemals entstanden sind, existieren auf ewig weiter und können nicht verloren gehen. So jedenfalls sah die gängige Lehrmeinung aus, bis Stephen Hawking darauf hingewiesen hat, dass alles, was hinter dem Ereignishorizont eines schwarzen Lochs verschwunden ist, dort auch alle damit verbundene Information mitgenommen hat. Diese könnte nur mit Überlichtgeschwindigkeit wieder entkommen. Da das aber auszuschließen ist, ginge in diesem Fall die im schwarzen Loch gefangene Information doch verloren. Später, nachdem Hawking die bis heute theoretisch gebliebene Hawking-Strahlung in die Debatte eingebracht hatte, revidierte er seinen Einwand zum Informationsverlust wieder. Denn, wenn die Hawking-Strahlung tatsächlich existiert, verdampft ein schwarzes Loch allmählich und könnte damit die gefangenen Informationen auch wieder freisetzen.
Zu dieser Debatte kann nur eines gesagt werden. Sie beruht auf einem mathematischen Artefakt. Auch wenn die Physik nicht gerade in dem Ruf steht, besonders verständlich und eingängig zu sein widerspricht es nicht nur allgemeinen Erfahrungen, dass vorherige Zustände nicht mehr wiederhergestellt werden können. Auch die experimentelle Physik kann hier nicht einmal ein einziges Beispiel benennen. Wer würde auch ernsthaft annehmen, dass man ein Lexikon, dass versehentlich in eine Müllverbrennungsanlage geraten ist, irgendwie rekonstruieren könnte. Nicht einmal, wenn man alle Asche und alle Abgase davon einfangen und von denen der anderen Abfälle separieren könnte wäre eine Wiederherstellung möglich.
Die Idee, jede Information müsse erhalten bleiben, ist absurd und nur damit zu erklären, dass die derzeitigen Erklärungsmodelle des Kosmos nicht die ganze Wahrheit enthalten. Isaac Newtons größte Leistung bestand nicht in der Aufstellung der Gravitationsgesetze, auch wenn diese Arbeit damals bahnbrechend war. Henri Poincaré hat deren Grenzen in überzeugender Weise aufgezeigt. Leider wurde seine Arbeit wenig beachtet. Was Newton wirklich heraushebt ist die Erkenntnis, dass es nur eine Physik gibt. Alle Naturgesetze, die auf der Erde gelten, müssen auch überall sonst im Universum gelten. Damit hat er endgültig die Reste des anthropozentrischen Weltbilds der Erde beseitigt, das von Galileo, Kopernikus und Kepler bereits erfolgreich untergraben worden war. Doch das eher am Rande. Wenn wir ein Beispiel von dort aufgreifen wollen, wo die Chaostheorie ihren Anfang genommen hat, dann bietet sich das Wetter an. Wie schon erwähnt ist das Wetter chaotisch. Es ist so unberechenbar, dass selbst heute mit den leistungsfähigsten Computermodellen allenfalls eine für wenige Tage im Voraus eine einigermaßen verlässliche Vorhersage möglich ist. Auf die Idee, man könne das Wetter aus den aktuellen Daten zurückrechnen, sagen wir, um das Zustandekommen des Magdalenenhochwassers 1342 zu rekonstruieren, würde kein Meteorologe kommen. In dem aktuellen Wettergeschehen sind keine Daten über das 12. Jahrhundert mehr enthalten. Man kann natürlich trotzdem Mutmaßungen darüber anstellen, was 1342 geschehen ist, da auch das Wetter den chaotischen Gesetzen der Selbstähnlichkeit unterliegt und man aus zeitgenössischen Berichten und geografischen Untersuchungen der damals verursachten massiven Erosionen Rückschlüsse ziehen kann. Aber es bleibt festzuhalten, dass eine exakte Rekonstruktion völlig ausgeschlossen werden kann. Und wenn hier auf der Erde schon Informationen verloren gehen können, muss das laut Newtons Erkenntnis auch sonst überall möglich sein.
Um es noch einmal zu wiederholen: Die Idee, Informationen könnten nicht verloren gehen, resultiert ausschließlich aus der mathematischen Reversibilität der beschreibenden physikalischen Theorien und widerspricht allem, was man beobachten kann. Unterstellt man jedoch, wie dargelegt, dass die grundlegenden Prozesse, die heute mittels linearer Mathematik beschrieben werden, in ihrer Grundstruktur chaotisch ablaufen, löst sich der Widerspruch zwischen Mathematik und Beobachtung auf. Da chaotische Prozesse irreversibel sind, speichern sie Informationen auch nur unvollständig. Damit löst sich das Informationsparadoxon in Nichts auf.
Zu Beginn wurde dargelegt, dass chaotische, nichtlineare Prozesse in Summe lineare, berechenbare Vorgänge werden können. So, wie in der additiven Betrachtung aus Wetter Klima wird. Wie sich ein System verhält, ist folglich eine Frage des Maßstabs. Betrachtet man einzelne Elemente eines Systems, lässt sich deren Verhalten nicht vorhersagen. Schaut man aber auf das gesamte System, ist dieses berechenbar. Man kann also sagen, das es Maßstabsrelativ ist, ob sich etwas linear oder nichtlinear verhält.
Da sich die Astrophysik naturgemäß mehr mit großen, aus fast unendlich vielen Teilchen bestehenden Systemen befasst, ist die sie beschreibende Mathematik linear. Dass die zugrundeliegenden Vorgänge dabei nichtlinear sind, ist dabei nicht weiter beachtet worden. Man kann sogar so weit gehen zu behaupten, dass der durchschlagende Erfolg von Einsteins allgemeiner Relativitätstheorie bis heute dazu geführt hat, dass dieser grundlegende Umstand nicht weiter beachtet wird. Das geht sogar so weit, dass die fraktale Struktur des Kosmos, die eigentlich offensichtlich ist, übersehen wurde. Statt dessen postuliert man eine „inflationäre Phase“ während des frühen Urknalls, bei der ausgerechnet die grundlegendste Konstante der relativistischen Physik, nämlich die Lichtgeschwindigkeit, überschritten worden sein soll. Und das nur, um zu erklären, was sich aus dem fraktalen, nichtlinearen Verhalten gemäß der Chaostheorie ganz natürlich ergibt.
Die Quantenphysik beschäftigt sich im Gegensatz zur Astrophysik mit den kleinste Bestandteilen von Materie. Dabei ist der Betrachtungsgegenstand der selbe. Es gibt nur ein zu betrachtendes Universum, folglich sollte man annehmen, dass sich die Beschreibungen wenigstens gleichen und im besten Fall ineinander überführt werden können. Das aber ist nicht der Fall. Die verwendeten Gleichungen bzw. mathematischen Modelle sind im Wesentlichen inkompatibel. Und bisher hat niemand hierfür eine auch nur ansatzweise befriedigende Erklärung liefern können.
Greift man aber den Gedanken auf, dass das Verhalten von Materie maßstabsrelativ ist, drängt sich eine Erklärung geradezu auf: Während die Astrophysik den großen Maßstab betrachtet, in dem die Vielzahl der agierenden Elemente zu einem linearen Verhalten führt, betrachtet die Quantenphysik die Einzelelemente. Einzelne Atome, Quarks und noch kleinere subatomare Teilchen. In diesem kleinen Maßstab kommt aber die chaotische Natur dieser Teilchen zum Tragen, da die statistische Zusammenfassung zu linearem Verhalten bei diesen Einzelbetrachtungen nicht zum Tragen kommt. Daher sind auch die Beschreibungen der Elementarteilchen und Quanten bemerkenswert. Diese werden nämlich vielfach als bizarr bezeichnet und sind ganz allgemein kaum zu verstehen. Erst mit statistischen und spieltheoretischen Zusammenfassungen, bei denen sich z.B Richard Feynman hervorgetan hat, konnte überhaupt eine sinnvolle Berechnung erreicht werden. Wenn man es anders ausdrücken will, muss die Quantenmechanik mit mathematischen Hilfskonstruktionen das simulieren, was sich durch die Anzahl an Systemelementen in der relativistischen Sichtweise ganz natürlich ergibt.
Der Unterschied
zwischen Quantenmechanik und der Astrophysik ist also die Zahl der beschriebenen
Teilchen. In Summe verhält sich ein System aus vielen Bestandteilen linear und
wird daher in der relativistischen Mathematik auch so beschrieben. Dennoch
verhalten sich die Einzelbestandteile eines relativistischen Systems nichtlinear
und chaotisch. Daher ist es nur folgerichtig, wenn die Betrachtung von diesen
Einzelbestandteilen auch chaotische Ergebnisse ergibt. Und da sich die
Quantenphysik folglich mit den Folgen dieses chaotischen Verhaltens beschäftigen
muss, musste sie hierfür eine eigene, statistikbasierte Mathematik erschaffen.
Dass diese mit den einsteinschen Formeln nicht kompatibel ist, erscheint daher
nur logisch zu sein. Denn während die Quantenmechanik die chaotischen
Einzelbeobachtungen zu mathematisch sinnvollen Ergebnissen erst (mühsam)
zusammenfassen muss, ist diese Zusammenfassung in der Astrophysik bereits auf
natürlichem Weg geschehen. Wenn man also anerkennt, dass auch astrophysikalische
Vorgänge vom Grundsatz her nichtlinear ablaufen, dürfte der Schritt zu einem
gemeinsamen Physikverständnis von relativistischer und Quantenphysik nicht mehr
weit sein.
19.12.2024
Gregor Jonas
Hier auch als PDF zum Herunterladen.