Was Klimamodelle können (mehr als Sie denken)

Erde
Eine NASA-Aufnahme zeigt die östliche Hemisphäre der Erdkugel (Foto: Nasa/dpa).

Klimamodelle sind wie eine Blackbox. Niemand weiß so genau, was darin passiert. Background bringt Licht ins Dunkel und beschreibt, was die Modelle inzwischen alles können und wieso sich Frankreichs Präsident mit ihrer Hilfe viel Ärger hätte ersparen können.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen

Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen“, soll unter anderem auch Karl Valentin einst gesagt haben. Seit Wissenschaftler in den 60er Jahren mit Lochkarten das erste Klimamodell der Atmosphäre schufen, können wir mit den Klimamodellen mögliche Zukünfte erkunden. Dass ein Klimamodell immer nur die zweitbeste Lösung dafür sein kann, ist zuallererst den Klimamodellierern klar: „Wenn wir Beobachtungen aus der Zukunft hätten, würden wir ihnen natürlich viel mehr vertrauen als den Modellen. Aber unglücklicherweise sind Beobachtungen der Zukunft zurzeit nicht verfügbar“, schreiben die beiden Physiker Tom Knutson und Bob Tuleya.

Grundproblem des Fachs ist, dass sich mit der Atmosphäre oder den Ozeanen kein wiederholbares Experiment anstellen lässt wie in anderen Naturwissenschaften. Immerhin können Computermodelle simulieren, wie sich der Klimawandel bei dieser oder jener Konzentration von Klimagasen in der Atmosphäre entwickeln würde.

Gut 100 Jahre hat es gedauert, bis die Wissenschaft die Grundlagen dafür verstanden hat und das erste Klimamodell programmiert wurde. Wie einen Krimi hat der Wissenschaftsjournalist Arian Bastani im Schweizer Magazin „Republik“ die Anfänge der Klimawissenschaft und den Aufstieg moderner Mess- und Simulationsmöglichkeiten beschrieben.

Der Urvater der Klimawissenschaft, der Mathematiker Joseph Fourier, identifizierte als erster die Strahlung der Sonne als wichtigsten Faktor für die Temperatur auf der Erde. Anfang des 19. Jahrhunderts vermutete Fourier bereits, dass die Sonnenstrahlung als Wärmestrahlung von der Erde zurückgeworfen wird, dass die Atmosphäre einen Teil davon zurückhält und ein Teil wieder ins All abgegeben wird.

Die Chemikerin Eunice Foote machte Mitte des 19. Jahrhunderts Experimente zum Treibhauseffekt. Den größten maß sie in einem Zylinder mit Kohlendioxid. Diese Ergebnisse erweiterte und verfeinerte der Ire John Tyndall bald darauf. Mit Max Plancks Quantentheorie konnte man verstehen, dass ausgerechnet die Wellenlänge der Wärmestrahlung genau zum Molekül Kohlendioxid passt. Die Strahlung regt CO2-Moleküle zum Schwingen an, die sie dann in alle möglichen Richtungen zurückwerfen – manche ins Weltall und manche zur Erde. Und die erwärmt sich dann. 

Der Schwede Svante Arrhenius war Ende des 19. Jahrhunderts der erste, der die Wirkung des CO2 auf die Erdtemperatur – die sogenannten Klimasensitivität – berechnete: Rund fünf Grad wärmer würde es bei einer Verdopplung des Kohlendioxid in der Atmosphäre werden, so das Ergebnis.

Eine kurze Geschichte der Klimamodelle

Heutige Berechnungen liegen niedriger: „Eine Verdopplung der Kohlendioxid-Konzentration in der Atmosphäre bedeutet eine Erwärmung von etwa drei Grad Celsius“, sagt der neue Direktor des Potsdam-Institituts für Klimafolgenforschung, Johan Rockström.

Allerdings ist eine der fundamentalen Fragen der Klimawissenschaft damit noch nicht beantwortet, denn manche Modelle berechnen 1,5 Grad Erwärmung und manche vier Grad. Jedoch: „Vier Grad sind innerhalb dieser Spanne wahrscheinlicher als 1,5 Grad“, sagt Rockström und wurde erst kürzlich bestätigt von einer Studie, die im Magazin „Nature“ erschien. Demnach sind diejenigen Modelle, die die Vergangenheit am besten nachzeichneten, auch diejenigen, die die stärkste Erwärmung in der Zukunft simulierten.

Doch warum ist es so schwierig, die Frage der Klimasensitivität zu beantworten? „Der Grund ist die Natur“, erklärt Rockström. Wäre die Erde nur ein Brocken Stein ohne lebendige Biosphäre, könnte man sehr präzise sagen, wie stark die Temperatur ansteigen wird. „Wälder, Ozeane oder Böden können jedoch Kohlendioxid-Emissionen aufnehmen und entlassen. Es geht also darum zu verstehen, wie stabil diese Systeme sind und wie stabil ihre Kapazität ist, Emissionen abzupuffern.“ 

Das Beispiel zeigt, mit welchen Schwierigkeiten die Modellierer auch heute noch kämpfen. Sie können nur eine mögliche Spanne als Ergebnis anbieten. Das ist so, seit Syukuro Manabe und Richard Wetherald in den 60er Jahren in Princeton das erste realistische Klimamodell programmierten. Es berücksichtigte nicht nur die Wärmestrahlung, sondern konnte auch die Konvektion abbilden, das Auf- und Absteigen von warmer oder erkalteter Luft. Inzwischen sind die Modelle auf mehrere hunderttausend Zeilen Code angeschwollen, die in der Programmiersprache Fortran fortgeschrieben werden.

Bereits im ersten Weltkrieg hatte der Brite Lewis Richardson beim Versuch, das Wetter vorherzusagen, die Welt in Planquadrate eingeteilt, um jedes einzelne leichter berechnen zu können. Heute haben sich die Planquadrate zu dreidimensionalen Gitterzellen weiterentwickelt, die bis hinauf in die höchsten Schichten der Atmosphäre oder bis tief in die Meere reichen. Anfangs gab es Modelle nur für die Ozeane oder die Atmosphäre; heute gibt es viele verbundene. Dabei wurden die Abmessungen der Gitterzellen immer kleiner und feiner. 

Noch heute funktionieren die Modelle so, dass sie mit physikalischen Gesetzen gefüttert werden. Zum Beispiel: Warme Luft steigt auf. Das kann man in eine Gleichung übersetzen. „Die wichtigsten Gleichungen sind die Navier-Stokes-Bewegungsgleichungen, die Geschwindigkeit, Druck, Temperatur und Dichte der Gase in der Atmosphäre und des Wassers im Ozean erfassen“, heißt es in einer Übersicht zur Funktionsweise von Klimamodellen im Portal „Carbon Brief“.

Die Kollegen lesen mit

Klimamodelle werden aber nicht im luftleeren Raum geschrieben. „Wissenschaftler schauen verständlicherweise auch: Was haben andere gemacht und was würden sie gut finden“, sagt Carlo Jaeger, Experte für Klimapolitik und Nachhaltigkeit am Global Climate Forum. „Weil sich die Leute gegenseitig kennen, gibt es eine starke Tendenz, dass sich die Modelle ähnlich werden, auch wenn die vorhandenen Daten und Theorien Spielraum für sehr unterschiedliche Ansätze lassen“, sagt er.

Das Problem ist bekannt vom System des Peer-Reviews: Wissenschaftler begutachten, wie plausibel ein Forschungsergebnis ist und ob es den jeweiligen wissenschaftlichen Standards genügt. Das soll verhindern, dass Scharlatane in Fachmagazinen publizieren. Es kann aber auch fruchtbare Außenseitermeinungen ausschließen und einen falschen Eindruck von Gewissheit erzeugen.  

Und natürlich können auch Wissenschaftler irren: So rutschte selbst dem Weltklimarat IPCC einmal eine Fehlinformation durch und fand sich später im vierten Sachstandsbericht von 2007. Damals schrieb der IPCC, es gebe eine sehr hohe Wahrscheinlichkeit, dass die Gletscher des Himalaja bis zum Jahr 2035 abschmelzen, wenn sich Welt im aktuellen Tempo erwärme. Diese Aussage beruhte aber nicht auf Modellierungen, sondern auf einem journalistischen Text des „New Scientist“, in dem der indische Glaziologe Syed Hasnain mit einer Einschätzung zitiert wurde, die er in keinem wissenschaftlichen Paper je wiederholte.

Fehler sind Wasser auf die Mühlen der Klimaleugner 

Es half nichts, dass der Fehler der einzige in dem tausend Seiten dicken ersten Band des Berichts zu den physikalischen Grundlagen des Klimawandels war. Noch heute reiten Leugner des menschengemachten Klimawandels genüsslich auf dem Irrtum herum, zumal dieser wirklich hanebüchen ist: Wer könnte glauben, dass die dicken Eisschichten der Gletscher im Himalaya innerhalb so kurzer Zeit schmelzen würden? 

Erst kürzlich hat der Bericht des Weltklimarats zum 1,5-Grad-Ziel eine wichtige Annahme korrigiert: „Nach den neuesten Klimaszenarien ist die CO2-Menge, die wir noch freisetzen können, weitaus größer als bisher angenommen – eine fundamentale Erkenntnis“, sagte der Klimaforscher Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie, dem „Spiegel“. Die Klimamodelle, so die Erklärung, waren an einer entscheidenden Stelle zu empfindlich. Wälder und Ozeane können mehr Kohlendioxid schlucken als gedacht. 

Doch abgesehen davon, dass die Modelle die einzige Möglichkeit sind, die Zukunft zu simulieren, sind sie auch ausreichend fähig. Das sagt Gavin Schmidt, Leiter des Goddard Institute for Space Studies der Nasa, in einer leidenschaftlichen Verteidigung des Modellierens bei einem TED-Talk. „Klimamodelle sind nicht richtig oder falsch. Sie sind immer falsch. Sie sind immer Annäherungen. Die Frage, die man stellen muss, lautet: Bringt mir das Modell mehr Informationen, als ich auf andere Art bekäme?“ Schmidt zeigt dann Beispiele, in denen Modelle gegen gemessene Daten getestet werden und man sieht, wie ähnlich sie den Luftdruck über der Antarktis, die Abkühlung der Erde nach dem Ausbruch des Vulkans Pinatubo oder die regionale Erwärmung aus der Erde simulieren.

An der Wirklichkeit gemessen

Immer wieder überprüfen die Modellierer ihre Modelle, um sie besser zu machen. Ein Beispiel zeigt Katharine Hayhoe, Leiterin des Climate Science Center an der Texas Tech University, in einem ihrer Videos aus der klimadidaktischen Reihe „Global Weirding“. Darin beschreibt sie, wie Forscher das Abbrechen des Eises an den Rändern der Antarktis besser verstanden. Nachdem das in die Modelle hineinprogrammiert war, stimmte die Eisausdehnung von heute mit derjenigen überein, die in der Antarktis bei gleicher Durchschnittstemperatur vor vielen Jahrtausenden herrschte, was vorher nicht der Fall war.   

Die Frage ist aber, was die Gesellschaft mit den Ergebnissen der Klimaforschung macht. Die Warnungen der Forschung jedenfalls verhallen meist ungehört. Nur wenige Länder erfüllen derzeit ihre Verpflichtungen aus dem Abkommen von Paris, zeigt eine Analyse von Carbon Action Tracker. 

„Wir müssen weg von der Vorstellung, dass die Wissenschaft stets präzise Ergebnisse produziert und dass die Dosis an Warnungen erhöht werden muss, wenn die Gesellschaft nicht gehorcht wie ein ungezogenes Kind“, sagt Carlo Jaeger. Die Modelle und ihre Ergebnisse könnten gute Orientierungshilfen bieten. Aber man müsse sie auch in der Praxis erproben und einsetzen. Jaeger tut das mit einer Art Labor, das Decision Theater genannt wird. Das Global Climate Forum hat es zusammen mit der Universität Lüneburg, der Arizona State University und dem Forschungsprojekt ENavi entwickelt.

Was sich im politischen Alltag aus Klimamodellen lernen lässt

Eine Probe in Form eines Entscheidungstheaters für nachhaltige Mobilität gab es kürzlich im Berliner Haus der Kulturen der Welt zu sehen. Fünf große Bildschirme waren dort im großen Saal aufgestellt. Eine Testgruppe aus Wissenschaftlern, Politikern und Verkehrsexperten konnte dann auf Grundlage des Mobility Transition Models (MoTMo) probieren, welche Folgen welche Entscheidungen in der Verkehrspolitik haben würden. Benzin verteuern? Mehr Fahrradwege? Elektromobilität subventionieren? Carsharing erleichtern? Aus diesen und anderen Maßnahmen konnten die Teilnehmer auswählen und sofort den Effekt auf die Emissionen im Verkehr grafisch dargestellt sehen.     

Jaeger möchte mit dem Decision Theater ein „Vertrauensverhältnis in beide Richtungen fördern“: Bürger oder Experten können von den Wissenschaftlern lernen und die Wissenschaftler können ihre Forschung mit Erkenntnissen aus der Praxis verbessern. „Wenn wir einfach vor uns hin forschen, sind die Ergebnisse in der Praxis nicht sehr hilfreich“, sagt der Experte. Und umgekehrt: „Hätte Macron vor einem halben Jahr ein Dutzend Decision Theaters gemacht, hätte er wissen können, dass unter den gegebenen Umständen die Einführung einer CO2-Steuer auf Benzin keine gute Idee war“, sagt Jaeger. 

Damit stellt er den Zusammenhang zu den klimaökonomischen Modellen her, zu denen auch MoTMo gehört. Während die physikalischen Klimamodelle auf Naturgesetzen beruhen und dann mit verschiedenen Emissionsszenarien arbeiten, haben es die klimaökonomischen Modelle sehr viel schwerer, zu gültigen Ergebnissen zu kommen, weil sie viel mehr Annahmen treffen müssen.

„Bis heute gibt es kein Modell, das den Finanzsektor adäquat darstellt“, nennt Jaeger ein Beispiel. Auch die Finanzkrise ab 2007 sei nach den Modellen nicht zu erwarten gewesen. Die Unfähigkeit der Modelle, die finanzielle Realität genügend gut darzustellen, sei ein schweres Problem. Denn: „Es gilt, große Finanzströme umzulenken, wenn wir effektiven Klimaschutz machen wollen“, sagt er.

Bei den klimaökonomischen Modellen unterscheidet man zwei große Klassen: Zum einen die makroökonomischen Modelle, die den Zusammenhang zwischen Wirtschaft und Energiesystem abbilden. Sie beschreiben, wie eine Volkswirtschaft auf neue politische Rahmenbedingungen oder Technologien reagiert. Computable General Equilibrium-Modelle (CGE) berechnen die Gleichgewichtszustände des Wirtschaftssystems. Sie sind aber recht steif und können beispielsweise keinen schnellen Umstieg auf erneuerbare Energien simulieren. Die zweite Art von makroökonomischen Modellen sind Wachstumsmodelle. Sie können Antworten darauf geben, mit welchen Technologien zwei Grad maximale Erderwärmung zu minimalen Kosten erreichbar sind.

Die zweite Klasse sind Gleichgewichtsmodelle des Energiesystems, die viele verschiedene Technologien abbilden können. Auch technische Parameter wie Volllaststunden oder Wirkungsgrade sind hinterlegt.

„Wichtig wären Modellvergleiche um herauszufinden, wo sich die Antworten unterscheiden. Aber das wurde von den zuständigen Ministerien immer wieder abgeschmettert, daran besteht kein Interesse“, bedauert Brigitte Knopf, Generalsekretärin des Mercator Research Institute on Global Commons and Climate Change. Für sie ist es „fast eine philosophische Frage, welchem Modell man vertraut“.

Im Projekt ADAM haben Modellierer Zwei-Grad-Szenarien in einem Vergleich untersucht. Es blieben aber auch hier Fragen offen: „Für unseren Modellvergleich wollte die Internationale Energieagentur die Annahmen für ihr MARKAL-Modell nicht offenlegen. Ihre Begründung dafür lautete: Es ist unser Wissen, wie sich beispielsweise die Kosten von erneuerbaren Energien entwickeln“, berichtet Knopf. 

Die EU hat mit öffentlichen Geldern das PRIMES-Modell aufgebaut, dessen Annahmen zunehmend transparent sind, so Knopf weiter. Aber auch dieses Modell ist alles andere als perfekt: „Wenn wir mehr investieren, lernen wir mehr und werden produktiver. Das ist einer der Gründe, warum die wirkliche Wirtschaft mehrere mögliche Gleichgewichte hat – ein Fakt, den meine Freunde von der PRIMES-Gruppe immer noch nicht berücksichtigen“, sagt Jaeger.

Mit dem jüngsten Szenario der EU, der Long-Term-Strategy bis 2050, hat sich aber auch das PRIMES-Modell weiterentwickelt, berichtet Brook Riley, Experte für Energieeffizienz beim Dämmstoffhersteller Rockwool und vorher bei der Umweltorganisation Friends of the Earth tätig.

Drei Verbesserungen nennt Riley: Erstens würden seit Neuestem die voraussichtlichen Schäden durch den Klimawandel in die Modelle eingepreist. Zweitens bildet das Modell nun auch die Reform des EU-Emissionshandels ab. Vorher habe es das Problem gegeben, dass der CO2-Preis mit starken Klimaschutzmaßnahmen auf Null fiel, weil der Emissionshandel dann nicht mehr gebraucht würde. In der Folge stieg die Kohlenutzung in den Modellen wieder an.

Drittens wurde eine Schwäche von PRIMES bei der Berechnung des Bruttoinlandsprodukts (BIP) behoben. Das Problem: Wenn man mehr Investitionen etwa in Energieeffizienz annimmt, fehlt das Geld theoretisch woanders und das hat negative Auswirkungen auf das BIP, sagt Riley. Dieser Teil der Berechnungen wurde nun mit dem Modell Climate Econometrics der Universität Oxford abgestellt, das realistischer sei, so Riley. In diesem Modell mangelt es nicht an Investitionen, weil diese aus anderen Teilen der Welt ins Land fließen. Insgesamt sieht man an den Änderungen, wie mit einem Modell die Wirtschaftlichkeit von Klimaschutz steht oder fällt, wie Riley in einem Beitrag für das European Council for an Energy Efficient Economy beschrieben hat. 

Klimamodelle können also weder die Zukunft vorhersagen, noch kann man den Berechnungen zur Wirtschaftlichkeit von Klimaschutz blind vertrauen. Gesellschaft und Politik müssen ihre Entscheidungen selbst treffen. Die Modelle bieten ihnen dafür die beste verfügbare Grundlage.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen