Physik & Ingenieurwesen Zeitlos 10 min read

Die Physik der Klimamodellierung: Wie sieben Gleichungen unsere Zukunft vorhersagen

Wenn Wettervorhersagen bereits nach zwei Wochen versagen, wie können Klimamodelle dann Temperaturen ein Jahrhundert im Voraus prognostizieren? Die Antwort liegt in der Chaostheorie, Erhaltungssätzen und einem fundamentalen Unterschied zwischen der Vorhersage konkreter Tage und der Prognose langfristiger Durchschnittswerte.

This article was automatically translated from English by AI. Read the original English version →
Supercomputer processing climate model physics simulations
Reading mode

Die Physik der Klimamodellierung ermöglicht es Wissenschaftlern, Temperaturen Jahrzehnte im Voraus vorherzusagen – mit denselben grundlegenden Gleichungen, die auch das morgige Wetter bestimmen[s]. Das klingt paradox: Wenn wir den Regen für nächsten Donnerstag nicht zuverlässig vorhersagen können, wie kann dann jemand die globalen Temperaturen für das Jahr 2100 prognostizieren? Die Antwort liegt in einem entscheidenden Unterschied zwischen Wetter und Klima sowie in der mathematischen Maschinerie der Physik der Klimamodellierung, die langfristige Vorhersagen möglich macht.

Die Grundlage: Sieben Kern-Gleichungen

Im Zentrum der Physik der Klimamodellierung stehen die Navier-Stokes-GleichungenDifferentialgleichungen zur Beschreibung von Fluidbewegungen, die die mathematische Grundlage aller Klima- und Wettermodelle bilden., ein Satz von Differentialgleichungen, die beschreiben, wie sich Fluide bewegen[s]. Da sowohl die Atmosphäre als auch die Ozeane sich wie Fluide verhalten, bilden diese Gleichungen das Rückgrat jedes Klimamodells. Sie erfassen, wie Luftdruckunterschiede Winde antreiben, wie Temperaturgefälle Zirkulationsmuster erzeugen und wie Feuchtigkeit durch die Atmosphäre transportiert wird.

Neben der Fluiddynamik integrieren Klimamodelle Gleichungen, die folgende Prinzipien steuern:

  • Massenerhaltung: Luft und Wasser können nicht einfach entstehen oder verschwinden
  • Energieerhaltung: Sämtliche Wärme muss bilanziert werden
  • Impulserhaltung: Alle Kräfte müssen im Gleichgewicht stehen
  • Thermodynamik: Temperaturänderungen folgen physikalischen Gesetzen
  • Strahlungstransfer: Wie Sonnenlicht und Wärmestrahlung mit der Atmosphäre wechselwirken

Diese Gleichungen besitzen keine analytische Lösung[s]. Mathematiker beschäftigen sich seit über 150 Jahren mit den Navier-Stokes-Gleichungen, ohne eine geschlossene Lösung gefunden zu haben. Stattdessen lösen Klimawissenschaftler sie numerisch, indem sie mit Computern schrittweise Näherungslösungen berechnen.

Die Erde in Kästchen unterteilen

Die rechnerische Architektur der Physik der Klimamodellierung teilt die Erde in ein dreidimensionales Gitter aus Zellen ein[s]. Jede Zelle repräsentiert einen bestimmten Ort und eine bestimmte Höhe und enthält Werte für Temperatur, Druck, Luftfeuchtigkeit, Windgeschwindigkeit und Dutzende weiterer Variablen. Aktuelle Modelle verwenden typischerweise Gitterzellen mit einer Ausdehnung von etwa 100 mal 100 Kilometern[s], mit 10 bis 20 vertikalen Schichten in der Atmosphäre und bis zu 30 Schichten in den Ozeanen[s].

Das Modell berechnet, wie sich die Bedingungen in jeder Zelle im Laufe der Zeit verändern, und gibt diese Ergebnisse an benachbarte Zellen weiter. Die Zeit schreitet in Schritten von wenigen Minuten bis zu einer halben Stunde voran. Eine Simulation über ein Jahrhundert mit 30-Minuten-Schritten erfordert über 1,75 Millionen Berechnungen an jedem der potenziell Millionen Gitterpunkte[s].

Dieser Rechenaufwand erklärt, warum Klimamodelle Supercomputer benötigen. Eine Verdopplung der Auflösung eines Modells erhöht den Rechenbedarf um etwa den Faktor 10 bis 16[s], da das Modell mehr Punkte häufiger berechnen muss.

Das Problem der ParametrisierungMethode zur Darstellung physikalischer Prozesse, die zu klein für eine direkte Simulation sind, mithilfe vereinfachter Gleichungen.

Viele entscheidende Prozesse laufen auf Skalen ab, die kleiner sind als die Gitterzellen. Wolken zum Beispiel sind typischerweise nur wenige Kilometer groß, während einzelne konvektive Aufwinde vielleicht nur einige hundert Meter umfassen. Diese können in einem Modell mit 100-Kilometer-Auflösung nicht direkt simuliert werden. Klimawissenschaftler begegnen diesem Problem durch Parametrisierung: Sie stellen kleinskalige Effekte mit vereinfachten Gleichungen dar, die auf Beobachtungen und Theorie basieren[s].

Parametrisierungen tragen erheblich zur Unsicherheit in Klimaprojektionen bei[s]. Verschiedene Modelle treffen unterschiedliche Annahmen darüber, wie Wolken entstehen, wie sich Niederschlag entwickelt und wie Wärme zwischen Ozean und Atmosphäre übertragen wird. Deshalb entwickelt sich die Physik der Klimamodellierung ständig weiter, während Wissenschaftler bessere Darstellungen dieser subskaligen Prozesse erarbeiten.

Warum Klimavorhersagen trotz Chaos funktionieren

In den 1960er Jahren machte der Meteorologe Edward Lorenz eine Entdeckung, die unser Verständnis von Vorhersagen revolutionieren sollte. Als er eine Wettersimulation zweimal mit auf drei Dezimalstellen gerundeten Zahlen statt auf sechs durchführte, wichen die Ergebnisse dramatisch voneinander ab[s]. Dies wurde als Schmetterlingseffekt bekannt: Winzige Unterschiede in den Anfangsbedingungen können zu völlig unterschiedlichen Ergebnissen führen.

Wenn das Wetter chaotisch ist, wie kann dann die Klimavorhersage funktionieren? Der Schlüssel liegt darin, dass das Klima der Durchschnitt des Wetters über die Zeit ist. Wir können nicht vorhersagen, ob es am 15. Januar 2050 in Paris regnen wird, aber wir können vorhersagen, ob die Winter im Durchschnitt wärmer oder feuchter werden[s]. Man kann es sich wie ein Casino vorstellen: Niemand kann das Ergebnis eines einzelnen Würfelwurfs vorhersagen, aber das Haus kann seine Gewinne über Tausende von Würfen prognostizieren.

Prüfung anhand der Geschichte

Ein entscheidender Test für die Physik der Klimamodellierung ist das sogenannte Hindcasting: Das Modell wird mit bekannten historischen Bedingungen gestartet und die Ergebnisse werden mit dem verglichen, was tatsächlich passiert ist[s]. Ein Modell, das mit Bedingungen aus dem Jahr 1850 initialisiert wird, sollte die bis 1950 beobachtete Erwärmung, die Abkühlung durch Vulkanausbrüche und andere dokumentierte Klimaschwankungen reproduzieren.

Modelle, die die Vergangenheit erfolgreich nachbilden, verdienen Vertrauen für die Vorhersage der Zukunft. Das koordinierte Modellvergleichsprojekt (Model Intercomparison Project) umfasst mittlerweile etwa 100 verschiedene Klimamodelle von 49 Forschungsgruppen weltweit[s]. Dies ermöglicht es Wissenschaftlern, Bereiche zu identifizieren, in denen die Modelle übereinstimmen, und solche, in denen noch Unsicherheiten bestehen.

Der Ensemble-Ansatz

Statt eine einzige Simulation durchzuführen, lassen Klimawissenschaftler die Modelle viele Male mit leicht variierten Anfangsbedingungen laufen, wodurch ein Ensemble von Ergebnissen entsteht[s]. Einzelne Durchläufe können sich unterscheiden, aber gemeinsame Muster treten aus dem Rauschen hervor. Wenn 90 Prozent der Ensemble-Mitglieder eine Erwärmung in einer Region zeigen, ist dieses Signal robust.

Das Verständnis der Physik der Klimamodellierung offenbart sowohl die Stärken als auch die Grenzen der Vorhersage. Diese Modelle können uns nicht das Wetter an einem bestimmten zukünftigen Datum verraten, aber sie können zeigen, wie sich die Energiebilanz der Erde verschieben wird, wenn die Treibhausgaskonzentrationen steigen. Die Physik der Klimamodellierung ist dieselbe, ob wir morgen oder das nächste Jahrhundert vorhersagen; der Unterschied liegt darin, was wir die Modelle für uns berechnen lassen.

Die Physik der Klimamodellierung umfasst den mathematischen und rechnerischen Rahmen, der zur Simulation des Klimasystems der Erde über Zeiträume von Monaten bis Jahrhunderten verwendet wird[s]. Allgemeine Zirkulationsmodelle (General Circulation Models, GCMs) stellen die Atmosphäre, den Ozean, die Landoberfläche und die Kryosphäre als gekoppelte Systeme dar, die Flüsse von Energie, Masse und Impuls austauschen. Die Entwicklung dieser Modelle reicht von Richardsons gescheitertem Versuch einer numerischen Wettervorhersage im Jahr 1922 über Charneys ENIAC-Simulationen von 1950 bis hin zu modernen Erdsystemmodellen, die auf Petascale-Supercomputern laufen[s].

Grundgleichungen in der Physik der Klimamodellierung

Der dynamische Kern atmosphärischer GCMs löst die primitiven Gleichungen, eine vereinfachte Form der Navier-Stokes-GleichungenDifferentialgleichungen zur Beschreibung von Fluidbewegungen, die die mathematische Grundlage aller Klima- und Wettermodelle bilden., die für eine dünne, rotierende Kugelschale aus Fluid angepasst sind[s]. In der hydrostatischen Näherung gleichen vertikale Druckgradienten die Gravitationsbeschleunigung aus, wodurch Schallwellen eliminiert und die vertikale Impulsgleichung vereinfacht wird. Die Gleichungen steuern:

  • Horizontaler Impuls: ∂u/∂t = −u·∇u − (1/ρ)∇p + fv + F, wobei f der Coriolis-Parameter ist
  • Thermodynamische Energie: ∂T/∂t = −u·∇T + (RT/cp)(ω/p) + Q/cp, gekoppelt an diabatische Erwärmung Q
  • Kontinuität: ∂ρ/∂t + ∇·(ρu) = 0, gewährleistet Massenerhaltung
  • Feuchtigkeitstransport: ∂q/∂t = −u·∇q + E − C, wobei E Verdunstung und C Kondensation ist

Ozeanmodelle lösen analoge Gleichungen, müssen jedoch Salzgehaltsauswirkungen auf die Dichte, die thermohaline Zirkulation und die viel längeren Anpassungszeiten des Ozeans berücksichtigen. Das erste gekoppelte Ozean-Atmosphäre-GCM wurde in den 1960er Jahren am GFDL entwickelt[s] und bildet bis heute den Rahmen, der verwendet wird.

Räumliche Diskretisierung und Auflösung

Die Navier-Stokes-Gleichungen besitzen keine bekannte analytische Lösung[s]. GCMs diskretisieren sie auf Rechengittern mithilfe von Finite-Differenzen-, Spektral- oder Finite-Volumen-Methoden. Typische Modelle der CMIP6-Ära verwenden horizontale Auflösungen von 50 bis 100 Kilometern in der Atmosphäre[s], mit spektralen Abbruchgrenzen um T85 (etwa 150 Kilometer) bis T255 (50 Kilometer)[s]. Die vertikale Diskretisierung umfasst typischerweise 30 bis 60 Schichten in der Atmosphäre und bis zu 75 Schichten in Ozeanmodellen.

Die Auflösung begrenzt direkt die Courant-Friedrichs-Lewy-Bedingung (CFL) für numerische Stabilität. Eine Halbierung des horizontalen Gitterabstands erfordert eine Halbierung des Zeitschritts, während die dreidimensionale Natur des Gitters bedeutet, dass eine Verdopplung der Auflösung die Anzahl der Zellen um den Faktor 8 erhöht. Zusammen mit der Zeitschrittbeschränkung skaliert der Rechenaufwand ungefähr mit der vierten Potenz der Auflösung[s]. Dies erklärt, warum konvektionsauflösende globale Simulationen (die eine Auflösung von 1 bis 4 Kilometern erfordern) trotz Fortschritten in der Computertechnik auf monatelange Integrationen beschränkt bleiben[s].

Subskalige ParametrisierungMethode zur Darstellung physikalischer Prozesse, die zu klein für eine direkte Simulation sind, mithilfe vereinfachter Gleichungen.

Prozesse, die unterhalb der Gitterskala ablaufen, müssen parametrisiert statt explizit aufgelöst werden. Der Unterschied in der Physik der Klimamodellierung ist fundamental: Simulierte Prozesse ergeben sich aus den Grundgleichungen, während parametrisierte Prozesse durch Schließungsannahmen dargestellt werden[s].

Wichtige Parametrisierungsschemata umfassen:

  • Feuchtkonvektion: Massenfluss-SchemataMentale Rahmen komprimierter Darstellungen und Erwartungen, die das Gehirn zum Kodieren, Speichern und Abrufen von Informationen nutzt. Wenn Sie sich an etwas erinnern, rekonstruiert Ihr Gehirn es mithilfe von Schemata plus kontextuelle Hinweise, die vorhanden sind. (z. B. Zhang-McFarlane, Tiedtke) oder konvektive Anpassungsalgorithmen verteilen Feuchtigkeit und Wärme vertikal
  • Wolkenmikrophysik: Steuert Tröpfchenbildung, Eisnukleation und Niederschlagseffizienz
  • Planetare Grenzschicht: Turbulente Durchmischung zwischen Oberfläche und freier Troposphäre
  • Strahlungstransfer: Absorption und Emission durch Treibhausgase, Wechselwirkungen zwischen Aerosolen und Strahlung
  • Oberflächenaustausch: Bulk-aerodynamische Formeln für fühlbare und latente Wärmeflüsse

Parametrisierungen tragen erheblich zur Streuung zwischen verschiedenen Modellen in Klimaprojektionen bei[s]. Aktuelle Arbeiten untersuchen Ansätze des maschinellen Lernens, um Parametrisierungen aus wolkenauflösenden Simulationen zu lernen, wobei die Gewährleistung numerischer Stabilität jedoch eine Herausforderung bleibt.

Chaos, Vorhersagbarkeit und Ensemble-Methoden

Die theoretischen Grundlagen der Physik der Klimamodellierung sahen sich direkt mit der Chaostheorie konfrontiert. Lorenzs Demonstration aus dem Jahr 1963, dass sich kleine Störungen in deterministischen Atmosphärenmodellen exponentiell verstärken, setzte die theoretische Grenze der Wettervorhersagbarkeit bei etwa zwei Wochen fest[s]. Die Klimavorhersage umgeht diese Grenze, indem sie statistische Eigenschaften des Attraktors anvisiert, statt spezifische Trajektorien durch den PhasenraumMathematischer Raum, wo jeder mögliche Zustand eines dynamischen Systems als einzigartiger Punkt dargestellt wird..

Ensemble-Methoden quantifizieren Unsicherheiten, indem sie den Raum der Anfangsbedingungen abtasten. Für Klimaprojektionen kombinieren Multi-Modell-Ensembles Ergebnisse unabhängiger Modellierungszentren, die jeweils unterschiedliche strukturelle Annahmen treffen[s]. CMIP6 koordiniert etwa 100 Modelle von 49 Gruppen[s] und liefert Schätzungen der strukturellen Modellunsicherheit, die sich von der internen Variabilität unterscheidet.

Validierung und Klimasensitivität

Die Modellvalidierung erfolgt durch HindcastBetrieb eines Klimamodells mit bekannten historischen Bedingungen, um zu prüfen, ob es vergangene Beobachtungen korrekt reproduziert.-Experimente, die von beobachteten Zuständen initialisiert werden[s]. Modelle müssen die Erwärmungstrends des 20. Jahrhunderts, das räumliche Muster der Temperaturänderung, die Reaktion auf vulkanische Antriebe und beobachtete Variabilitätsmodi (ENSO, NAO, AMO) reproduzieren. Emergente Constraints setzen beobachtbare Größen mit zukünftigen Projektionen in Beziehung und verengen die Unsicherheitsbereiche.

Die Gleichgewichts-Klimasensitivität (Equilibrium Climate Sensitivity, ECS), also die langfristige Erwärmung bei einer Verdopplung des CO₂-Gehalts, reicht in CMIP6-Modellen von 1,8°C bis über 5,5°C[s]. Diese Spanne spiegelt Unterschiede in den Wolkenrückkopplungen wider, insbesondere die Behandlung von Mischphasenwolken und deren Reaktion auf Erwärmung. Svante Arrhenius schätzte die Klimasensitivität bereits in den 1890er Jahren durch Handberechnungen auf 5 bis 6°C[s] – ein Wert, der bemerkenswert konsistent mit der Obergrenze moderner Schätzungen ist.

Das Verständnis der Physik der Klimamodellierung erfordert die Erkenntnis, dass es sich dabei nicht um empirische Kurvenanpassungen handelt, sondern um physikalische Simulationen, die auf Erhaltungssätzen und Thermodynamik beruhen. Ihre Projektionen sind mit Unsicherheiten behaftet, aber diese Unsicherheiten sind durch Ensemble-Methoden quantifizierbar und durch Beobachtungen eingeschränkt. Dieselben Gleichungen, die das morgige Wetter beschreiben, beschreiben auch das Klima des nächsten Jahrhunderts; der Vorhersagehorizont erweitert sich, weil wir unterschiedliche statistische Eigenschaften der Lösung anvisieren.

How was this article?
Share this article

Spot an error? Let us know

Quellen