Kleine linke Klimaserie (XIV): Unumstrittene Fakten der sechs führenden Klimaorganisationen Deutschlands – mit AMOC‐​Lauf in die Welt der Klimamodelle

»We own the science«
(»Uns gehört die Wissenschaft«)

Melissa Fleming, Leiterin der Hauptabteilung für
Globale Kommunikation der Vereinten Nationen,
bei einem Podiumsgespräch des Weltwirtschaftsforums 2022

Die vorletzte Folge erweckte den Eindruck, eine Kernaussage der einen Seite der Klimadebatte stünde nicht auf ehernen physikalischen Pfeilern, sondern auf wirtschaftsstatistisch‐ informationstheoretischem Wackelpudding: die Aussage, steigende menschengemachte CO2-Emissionen würden eine merkliche Steigerung der globalen mittleren Oberflächentemperatur1 bewirken.

Entstand dieser Eindruck bloß durch Rosinenpickerei kurioser Ausnahmestudien?

Um das herauszufinden, schaute ich mir drei für Laien gedachte Erklärungen zum Klimawandel an.

Welche Hinweise auf physikalische Ursache/​Wirkungsbeziehungen zwischen atmosphärischem CO2-Gehalt und globaler mittlerer Oberflächentemperatur werden darin gegeben? Finden sich insbesondere Hinweise auf Kausalzusammenhänge zwischen menschengemachten CO2-Emissionen und globaler mittlerer Oberflächentemperatur?

Die drei Erklärungen, die ich mir anschaute, stammen aus seriösen Quellen:

  1. Akademieantwort
    Ein Text bei der britischen Akademie der Wissenschaften (»Royal Society«), der die Frage behandelt: »Woher wissen die Wissenschaftler:innen, dass der jüngste Klimawandel weitgehend durch menschliche Aktivitäten verursacht wird?« Der Text entstand 2020 in Kooperation mit der Akademie der Wissenschaften der USA und wurde »von einem britisch/​US‐​amerikanischen Team führender Klimawissenschaftler:innen verfasst und geprüft«, heißt es auf der Eingangsseite.
  2. Sechserbroschüre
    Eine Broschüre von 2020 mit dem Titel: »Was wir heute übers Klima wissen: Basisfakten zum Klimawandel, die in der Wissenschaft unumstritten sind«. Der Deutsche Wetterdienst schreibt über diese Broschüre: »Sechs Organisationen aus der Klimaforschung und der wissenschaftsbasierten Klimakommunikation – Deutsches Klima‐​Konsortium, Deutsche Meteorologische Gesellschaft, Deutscher Wetterdienst, Extremwetterkongress Hamburg, Helmholtz‐​Klima‐​Initiative, klimafakten​.de – haben die wichtigsten wissenschaftlichen Erkenntnisse zum Klimawandel zusammengefasst.«
  3. S4F‐​Fakten
    Ein Text der Scientists for Future (S4F) von 2020 mit dem Titel »Fakten aus der Wissenschaft«, auf den Fridays for Future verweist. S4F ist laut Selbstdarstellung ein »überinstitutioneller, überparteilicher und interdisziplinärer Zusammenschluss von Wissenschaftler:innen«, der sich dafür engagiert, »dass wissenschaftliche Erkenntnisse angemessen in die politischen Debatten einfließen und bei der Gestaltung einer nachhaltigen Zukunft Berücksichtigung finden.«

Die Akademieantwort war Gegenstand der letzten Folge. Zusammengefasst kam heraus:

Physikalisch ist es möglich, dass höhere atmosphärische CO2-Konzentrationen zu höheren globalen mittleren Oberflächentemperaturen führen. Physikalische Nachweise dafür, dass sie das tatsächlich oder in bemerkenswertem Ausmaß tun, fehlen. Wissenschaftlerinnen der einen Seite der Klimadebatte wissen trotzdem, dass eine nach Beginn der Industrialisierung festgestellte Erhöhung der mittleren Oberflächentemperaturen durch menschliche Aktivitäten verursacht ist. Sie wissen es daher, dass es ihnen nicht gelungen ist, eine Theorie zu entwickeln, die mit den verfügbaren Beobachtungsdaten zusammenpasst und die zugleich keine menschengemachten Treibhausgas‐​Emissionen zur Erklärung dieser Daten voraussetzt. Darüber, weshalb ihnen das nicht gelungen ist, gibt’s unterschiedliche Meinungen – zu deren Weiterentwicklung vielleicht die Sechserbroschüre beiträgt.

Was sagt die Sechserbroschüre?

Die Broschüre »Was wir heute übers Klima wissen: Basisfakten zum Klimawandel, die in der Wissenschaft unumstritten sind« beinhaltet zum großen Teil Beschreibungen zum atmosphärischen CO2-Anstieg und zu Klimaveränderungen, die beängstigend sind und Handlungsdruck erzeugen. Ich empfehle, vor dem Weiterlesen hier die Broschüre in aller Ruhe durchzulesen und auf sich wirken zu lassen.

Um sich danach auf die Erklärungen konzentrieren zu können, die sich in der Broschüre für manche »Basisfakten« finden oder zumindestens andeuten, hilft es, die ins Kleinhirn geschlagenen Tunnel der Klimaangst mit Gummibärchen zu verstopfen, und auch, die Beschreibungen nicht allzu sehr zu bekritteln.2

Was sagt die Sechserbroschüre über kausale Zusammenhänge zwischen atmosphärischen CO2-Konzentrationen und Temperaturänderungen aus? Was sagt sie insbesondere über kausale Zusammenhänge zwischen menschengemachten CO2-Emissionen und globalen Temperaturänderungen aus?

Sie sagt zunächst etwas, das manche erstaunen könnte, doch schon in der Akademieantwort anklang:

Am Treibhauseffekt liegt es eigentlich nicht

Auf Seite 4 der Sechserbroschüre steht:

»Die wichtigsten Treibhausgase sind Wasserdampf, Kohlendioxid (CO2), Methan (CH4) und Distickstoffoxid (N2O). […] Ohne Treibhausgase (aber bei ansonsten gleichbleibenden Bedingungen) wäre es auf der Erdoberfläche im Mittel etwa minus 18 Grad Celsius kalt. Durch den Treibhauseffekt wird die Erde also überhaupt erst bewohnbar, die Temperatur steigt um circa 32 Grad Celsius auf rund plus 14 Grad Celsius. Diese grundsätzlichen Zusammenhänge sind seit mehr als 150 Jahren bekannt. Sie sind in der Wissenschaft unumstritten und durch zahlreiche Experimente und Messungen belegt.2«

Solange man Treibhauseffektheorie(n) nicht in Frage stellt, sieht diese Ansage ganz nach einem Hinweis auf handfeste physikalische Kausalangelegenheiten aus.

Was der Treibhauseffekt ist, erklärt die Broschüre wie folgt:

»Einige Spurengase in der Lufthülle der Erde sorgen dafür, dass ein Teil der Energie, die über die Sonneneinstrahlung ankommt, nicht wieder vollständig in Form von Infrarotstrahlung abgestrahlt wird. Stattdessen verbleibt ein Teil als Wärmeenergie in der Atmosphäre. Die Gase werden ›Treibhausgase‹ genannt, ihre Wirkung ›Treibhauseffekt‹.« (Seite 4)

Laut NASA betrug 2021 die globale Oberflächentemperatur 15 °C. Im Zusammenhang mit den im Zitat genannten »rund plus 14 Grad Celsius« und dem vom IPCC im neuesten Sachstandsbericht von 2021/​2023 genannten menschengemachten Temperaturanstieg seit 1850 – 1900 von 1,07 °C 3 könnte man dem entnehmen: Durch menschliche Treibhausgas‐​Emissionen stieg die Temperatur von der »natürlichen« Temperatur des Treibhauseffekts um rund 1 °C auf 15 °C.

Allerdings beträgt laut Umweltbundesamt die »natürliche« Temperatur des Treibhauseffekts »knapp 15 Grad Celsius« – seit einer Weile. Im Februar 2021 sagte das Umweltbundesamt noch: »circa 15 Grad Celsius«.

Der Lernhelfer, Planet Schule, die NASA und viele andere sagen, die »natürliche« Temperatur des Treibhauseffekts betrage 15 °C (gesehen 31.10.2024 und 5.4.2025). Demnach hat die Erde zur Zeit eine völlig »natürliche« Temperatur, während die Temperatur zu Beginn der Industrialisierung rund einen Grad niedriger als die »natürliche« war (– weswegen die vorindustrielle Phase vielleicht »Kleine Eiszeit« heißt). Eine wissenschaftlich integre Aussage dazu wäre vielleicht: Durch menschliche Aktivitäten ist die Erde vielleicht wärmer geworden, aber das lässt sich nicht so genau messen.

Dritter IPCC‐​Sachstandsbericht

Die hochgestellte 2 am Ende des Sechserbroschürenzitats oben verweist als Quelle auf den dritten IPCC‐​Sachstandsbericht von 2001, Kapitel 1.1.2 und 1.2.1:

»IPCC 2001, AR3 (TAR), WG1, Kap. 1.1.2 und 1.2.1 – https://​www​.ipcc​.ch/​s​i​t​e​/​a​s​s​e​t​s​/​u​p​l​o​a​d​s​/​2​0​1​8​/​0​3​/​T​A​R​-​0​1​.​pdf« (Seite 23)

In Kapitel 1.1.2 dieser Quelle heißt es:

»[E]s gibt eine Reihe von Spurengasen, wie Kohlendioxid (CO2), Methan (CH4), Distickstoffoxid (N2O) und Ozon (O3), die Infrarotstrahlung absorbieren und emittieren. Diese so genannten Treibhausgase, deren Mischungsverhältnis in der trockenen Luft insgesamt weniger als 0,1 Volumenprozent beträgt, spielen eine wesentliche Rolle im Energiehaushalt der Erde. Außerdem enthält die Atmosphäre Wasserdampf (H2O), der ebenfalls ein natürliches Treibhausgas ist. Sein Volumenmischungsverhältnis ist sehr unterschiedlich, liegt aber in der Regel in der Größenordnung von 1 %. Da diese Treibhausgase die von der Erde abgegebene Infrarotstrahlung absorbieren und Infrarotstrahlung nach oben und unten abgeben, erhöhen sie tendenziell die Temperatur in der Nähe der Erdoberfläche.« (Seite 87f)

Mit dem Ausdruck »tendenziell« (Original: »they tend to raise the temperature«) wird gesagt, dass es keinen einfachen Kausalzusammenhang zwischen atmosphärischen Treibhausgas‐​Konzentrationen und globaler Oberflächentemperatur nach dem Muster gibt: steigt das eine, steigt das andere; sinkt das eine, sinkt das andere.

Weiter weist Kapitel 1.1.2 des dritten IPCC‐​Sachstandsberichts auf eine Ungleichheit der Bedeutung der Treibhausgase hin:

»Wasserdampf ist das stärkste Treibhausgas. Aus diesen Gründen und weil der Übergang zwischen den verschiedenen Phasen [gasförmig, flüssig, gefroren] viel Energie absorbiert und freisetzt, ist der Wasserdampf von zentraler Bedeutung für das Klima und seine Variabilität und Veränderung.« (Seite 88)

Die Bedeutung von Wasserdampf wird oft kleingeredet mit dem Hinweis, dass das Wasserdampfaufkommen in der Atmosphäre enorm flexibel ist und von der Lufttemperatur abhängt. Doch daran, dass die Atmosphäre insgesamt gesehen sehr viel mehr Wasserdampfmoleküle als CO2-Moleküle enthält, ändern schnell sich ändernde regionale Wasserdampfaufkommen nichts. Rund 60 bis 70 % unserer Erde sind praktisch immer in Wolken gekleidet. Könnte es auf’s Gesamte gesehen nicht zum Beispiel langfristigere Zyklen von mehr und weniger Wolkenbedeckung geben?

Im dritten IPCC‐​Sachstandsbericht folgt eine Übersicht über viele das Klima beeinflussende Kompontenten. Die Übersicht schließt Kapitel 1.1.2 mit den Worten ab:

»Dies sind nur einige Beispiele aus einer schier unerschöpflichen Liste komplexer Wechselwirkungen, von denen einige nur wenig bekannt oder vielleicht sogar unbekannt sind.« (Seite 89)

Kapitel 1.2.1 des IPCC‐​Sachstandsberichts von 2001, das die Sechserbroschüre ebenfalls als Quelle nennt, behandelt Strahlungsantriebe und den natürlichen Treibhauseffekt. Hier taucht als »natürliche« Temperatur des Treibhauseffekts der Wert 14 °C auf. Aber die Erde ist ohne Treibhauseffekt nicht »etwa minus 18 Grad Celsius kalt«, wie die Sechserbroschüre sagt, sondern minus 19 Grad Celsius. Durch den Treibhauseffekt steigt die Temperatur auch nicht »um circa 32 Grad Celsius«, wie die Sechserbroschüre sagt, sondern um 33 Grad Celsius (Seite 89f). Dieser kleinen Unstimmigkeit von nur 1 °C, die mit unterschiedlichen Treibhauseffekttheorien zusammenhängen könnte, weiter nachzugehen, wäre wohl Fennichfuxerei – wenn nicht die menschengemachte Erwärmung laut IPCC mit 1,07 °C gerade in dieser Größenordnung liegen würde.

Zum Schluss verweist Kapitel 1.2.1 des IPCC‐​Sachstandsberichts von 2001 auf Kapitel 6:

»In Kapitel 6 werden die derzeitigen Kenntnisse über den Strahlungsantrieb und seine Schwankungen, einschließlich der anthropogenen Veränderung der atmosphärischen Zusammensetzung, bewertet.« (Seite 91)

In Kapitel 6, betitelt »Strahlungsantrieb des Klimawandels«, schreibt das IPCC:

»Der Unsicherheitsbereich, wie er in diesem Kapitel verwendet wird, ist nicht das Ergebnis systematischer quantitativer Analysen der verschiedenen Faktoren, die mit dem Antrieb in Verbindung stehen, und entbehrt daher einer strengen statistischen Grundlage. […] [W]ir führen bei dieser Bewertung ein ›Niveau des wissenschaftlichen Verständnisses‹ (LOSU – level of scientific understanding) ein, das […] eine subjektive Beurteilung darstellt«. (Seite 391)

»Die Subjektivität, die sich im LOSU‐​Index widerspiegelt, ist unvermeidlich und ergibt sich aus dem Mangel an ausreichenden quantitativen Informationen über die Unsicherheiten«. (Seite 392)

In der Hauptsache kommt der dritte IPCC‐​Sachstandsbericht zu dem Ergebnis:

»In Anbetracht neuer Erkenntnisse und unter Berücksichtigung der verbleibenden Unsicherheiten ist es wahrscheinlich, dass der Großteil der in den letzten 50 Jahren beobachteten Erwärmung auf den Anstieg der Treibhausgaskonzentrationen zurückzuführen ist.« (Seite 10)

Zur Frage, ob der Anstieg der Treibhausgaskonzentration von Menschen verursacht ist, sagt der IPCC‐​Sachstandsbericht: das ist »praktisch sicher«. Also kombiniert: Menschen haben eine wahrscheinliche Angelegenheit praktisch sicher verursacht.

Die unterstrichenen Ausdrücke sind Größen von sieben »wertenden Schätzungen des Vertrauens [judgmental estimates of confidence]«:

»praktisch sicher (mehr als 99 % Wahrscheinlichkeit, dass ein Ergebnis zutrifft); sehr wahrscheinlich (90‑99 % Wahrscheinlichkeit); wahrscheinlich (66‑90 % Wahrscheinlichkeit); mittlere Wahrscheinlichkeit (33‑66 % Wahrscheinlichkeit); unwahrscheinlich (10 – 33 % Wahrscheinlichkeit); sehr unwahrscheinlich (1‑10 % Wahrscheinlichkeit); äußerst unwahrscheinlich (weniger als 1 % Wahrscheinlichkeit).« (Seite 2, Anmerkung 7)

Bis hierher hat sich zum Zitat von Seite 4 der Sechserbroschüre etwa Folgendes ergeben:

Bei dem, was seit 150 Jahren bekannt ist, was unumstritten und was experimentell belegt ist, geht es um Dinge, die nicht ausreichen, um die gegenwärtigen Klimaveränderungen zu erklären. Maximal lässt sich aus ihnen für das Klima schließen, was im IPCC‐​Sachstandsbericht von 2001 so auch steht:

»Treibhausgase … erhöhen … tendenziell die Temperatur in der Nähe der Erdoberfläche.«

Unter welchen Umständen wie stark sich diese Tendenz messbar niederschlägt, ist für das IPCC 2001 noch eine Frage »wertender Schätzungen des Vertrauens«. Dem nicht genug, hatte das damals zuständige IPCC‐​Wissenschaftsteam ganz ganz hinten im Sachstandsbericht noch fogende Aussage gemacht:

»Das Klimasystem ist ein gekoppeltes, nichtlineares, chaotisches System, so dass eine langfristige Prognose künftiger Klimazustände nicht möglich ist. Vielmehr muss der Schwerpunkt auf der Prognose der Wahrscheinlichkeits­verteilung der zukünftigen möglichen Zustände des Systems durch die Erzeugung von Ensembles von Modelllösungen liegen.« (Seite 771)

Weiter vorne im Sachstandsbericht schoben andere Zuständige ein Wörtchen dazwischen, das diese Aussage nahezu bedeutungslos macht: »Das Klimasystem ist ein gekoppeltes, nichtlineares, chaotisches System, und daher ist eine langfristige Prognose künftiger exakter Klimazustände nicht möglich.« (Seite 78) – Wer erwartet schon von Prognosen, dass sie »exakt« sind?

Im Laufe der Zeit verblasste das Anliegen des zuständigen IPCC‐​Wissenschaftsteams, zur Berücksichtigung des chaotischen Charakters des Klimas für jeweils dieselben Grundbedingungen des Klimas Wahrscheinlichkeitsverteilungen zukünftig möglicher Zustände zu ermitteln.

In den Vordergrund rückte ein anderes Verfahren: Es wird so getan, als könnten dieselben Grundbedingungen des Klimas zu nur einem wahrscheinlichsten Ergebnis führen, das genau genug bestimmbar ist, um zum Beispiel »CO2-Budgets« nach dem Pariser Abkommen festzulegen. Das wahrscheinlichste Ergebnis ist im Prinzip ein Mittelwert der zukünftig möglichen Zustände, so dass man sich um deren Verschiedenheit keinen Kopf mehr zu machen braucht.4

Verschiedenheiten zukünftig möglicher Zustände, um die man sich einen Kopf zu machen braucht, ergeben sich nur noch aus unterschiedlichen Grundbedingungen, »Szenarien« genannt (unterschiedlich hohe Treibhausgas‐Emissionen).

Wärmeverteilung

Auf Seite 4 der Sechserbroschüre geht es weiter mit der Großbuchstaben‐Überschrift:

»DER MENSCH VERSTÄRKT DEN TREIBHAUSEFFEKT«.

Danach erklärt die Broschüre, Menschen hätten die atmosphärische CO2-Konzentration vor allem durch »das Verbrennen kohlenstoffhaltiger Energieträger« erhöht. Eine kausale Verbindung dieser Emissionen zur Temperatur der oberflächennahen Atmosphäre behauptet die Broschüre nicht ausdrücklich. In den Köpfen der Lesenden entsteht sie durch den kurz zuvor beschriebenen Treibhauseffekt.

Da der Treibhauseffekt beinhaltet, dass Treibhausgase in der Atmosphäre »auf der Erdoberfläche« (Sechserbroschüre) bzw. »in der Nähe der Erdoberfläche« (IPCC) eine Erwärmung bewirken, so die Logik, sollten mehr Treibhausgase in der Atmosphäre »auf der Erdoberfläche« bzw. »in der Nähe der Erdoberfläche« mehr Erwärmung bewirken. Wenn das so ist: Weshalb fielen die Studien der vorletzten Folge so wackelpuddingartig aus? Und weshalb sagt das IPCC: »tendiert«?

Eine Antwort darauf deutet sich auf Seite 5 der Sechserbroschüre an. Es heißt dort, dass Steigerungen von Treibhausgas‐​Konzentrationen in der Atmosphäre zu 99 % keine Erwärmung »auf der Erdoberfläche« bzw. »in der Nähe der Erdoberfläche« bewirken:

»Durch den menschenverstärkten Treibhauseffekt ist im gesamten Klimasystem der Erde zusätzliche Energie vorhanden. Diese Überschuss‐​Energie verteilt sich aus der Atmosphäre auch in die anderen Teile des Klimasystems. Nur rund ein Prozent der Überschuss‐​Energie verbleibt in der Lufthülle der Erde, etwa 93 Prozent fließt in die Weltmeere.8

Stagniert oder sinkt zum Beispiel die Temperatur der Atmosphäre (wie es immer mal wieder und auch über einige Jahre hinweg vorkommt) und steigt gleichzeitig die Temperatur der Ozeane, dann erwärmt sich das Klimasystem dennoch insgesamt weiter. Der Wärmeinhalt der Ozeane ist damit ein besserer Indikator für die Klimaerwärmung als die stark und kurzfristig schwankende Lufttemperatur.«

Das scheint sich mit der zuvor gemachten Erklärung des Treibhauseffekts zu beißen, die lautete: durch die »nicht wieder vollständig in Form von Infrarotstrahlung« abgestrahlte Sonneneinstrahlung »verbleibt ein Teil als Wärmeenergie in der Atmosphäre«. Durch die Absorption von Infrarotstrahlung durch Treibhausgase »verbleibt« die Wärmeenergie anscheinend zu 99 % nicht in der Atmosphäre. Wie kann Energie zugleich in der Atmosphäre absorbiert werden und außerhalb der Atmosphäre in den Ozeanen verbleiben? Da müssen wohl zugleich andere Effekte als der Treibhauseffekt wirken.

Ozeantemperaturen (SST‐​Werte) aus der Zeit, bevor auf den Meeren genügend ARGO‐​Messbojen ausgesetzt waren, etwa 2004, sind mangels zuverlässiger und flächendeckender Messungen ein Ratespiel (siehe letzte Folge).5

Eine Grafik in der Sechserbroschüre zeigt:

  • 93 % der »globalen Erwärmung« fließen in die Ozeane
  • 3 % fließen in Eismassen
  • 3 % fließen in die Kontinente und
  • 1 % fließen in die Atmosphäre.

Mit dem geringen Atmosphärenanteil erklärt die Sechserbroschüre, weshalb die globale Oberflächentemperatur phasenweise nicht steigt: Der »Erwärmungstrend«, den die Treibhausgas‐​Emissionen bewirken, könne von »internen Wechselwirkungen im Klimasystem« und von »äußeren Klimaeinflüssen« – Änderungen der Erdbahn, Leuchtkraft der Sonne, Vulkanausbrüche – überlagert werden (Seite 4).

Die angegebene »Wärmeverteilung« entspricht nicht der Verteilung der CO2-Moleküle. Laut sechstem IPCC‐​Sachstandsbericht, Seite 676, landet das von Menschen emittierte CO2 mit »hohem Vertrauen« an folgenden Stellen:

  • 23 % in den Ozeanen
  • 31 % in der Vegetation und terrestrischen Ökosystemen
  • 46 % in der Atmosphäre.

Das deutsche Bundesverfassungsgericht hatte diese, schon länger vertretene, Verteilungsangelegenheit wohl nicht so gut kapiert, denn 2021 meinte es in einem Urteil, das »Klimaneutralität« zur Staatsaufgabe erklärt:

»Nur kleine Teile der anthropogenen Emissionen werden von den Meeren und der terrestrischen Biosphäre aufgenommen.«

Wie die immerhin 46 % CO2-Moleküle in der Atmosphäre zu den 1 % Wärme in der Atmosphäre passen, muss ich dahingestellt sein lassen.

Fünfter IPCC‐​Sachstandsbericht

Bezüglich der Wärmeverteilung verweist die Sechserbroschüre auf Kapitel 3 des fünften IPCC‐​Sachstandsberichts von 2013. Das ist der neueste Sachstandsbericht, auf den die Sechserbroschüre verweisen kann, denn der aktuellste, sechste Sachstandsbericht von 2021/​2023 war zur Zeit der Entstehung der Broschüre noch in Arbeit.

Kapitel 3 des fünften IPCC‐​Sachstandsberichts bestätigt, was in der Sechserbroschüre steht:

»Die Erwärmung der Ozeane dominiert die Bilanz der globalen Energieveränderungen. Die Erwärmung des Ozeans beträgt etwa 93 % des Anstiegs des Energieinventars der Erde zwischen 1971 und 2010 (hohes Vertrauen)«. (Seite 257)

Herausgefunden wurden die Zahlen zur Verteilung der globalen Erwärmung mit Hilfe von rund 35 Klimamodellen, die als Ensemble zusammengefasst »CMIP5« genannt werden – »Coupled Model Intercomparison Project, Phase 5«. Der neueste, sechste IPCC‐​Sachstandsbericht von 2021/​2023 verwendet ein Ensemble von über 100 Modellen, »CMIP6« genannt.

Ein Forschungsbrief in der international etablierten Fachzeitschrift der Amerikanischen Geophysikalischen Vereinigung (AGU) von 2024 korrigiert das mit hohem Vertrauen gemachte »unumstrittene Faktum«, dass 93 % der Wärme in die Ozeane gehe. Es seien nur 89 %. Die Landmassen, so der Forschungsbrief, nehmen nicht nur 3 % Wärme auf, sondern 6 %, und die Eismassen 4 %. Der Forschungsbrief gibt Unsicherheiten an, mit denen die Angaben der Sechserbroschüre zur Verteilung der globalen Erwärmung behaftet sind, und die deren Lesenden erspart bleiben:

»Erdsystemmodelle (ESM) werden eingesetzt, um die Entwicklung der Wärmeaufnahme der Erde und deren Verteilung in der Zukunft abzuschätzen. Cuesta‐​Valero et al. (2021) liefern die erste vollständige Bewertung der Wärmeverteilung in ESMs, die am Climate Model Intercomparison Project (CMIP) Phase 5 teilnehmen. Sie kommen zu dem Ergebnis, dass der Anteil der Wärmeaufnahme des Ozeans 96 % ± 4 % beträgt, die Erwärmung des Landes 2 % ± 3 % und die Wärmeakkumulation in der Atmosphäre und der Kryosphäre jeweils 1 % ± 1 % der gesamten Wärmeaufnahme des Systems ausmacht.«

Zur Erwärmung der Ozeane heißt es in Kapitel 3 des fünften IPCC‐Sachstandsberichts:

»Die durchschnittliche globale Erwärmung in diesem Zeitraum [1971 bis 2010] beträgt 0,11 [0,09 bis 0,13] °C pro Jahrzehnt in den oberen 75 m und nimmt auf 0,015 °C pro Jahrzehnt in 700 m Tiefe ab«. (Seite 262)

Insgesamt ergibt sich: Durch Treibhausgas‐​Emissionen verursachen Menschen eine Erwärmung der Atmosphäre oder auch nicht (1 % ± 1 %). In jedem Fall verursachen sie eine Erwärmung der Ozeane; ermittelt wurden rund 0,1 °C pro Jahrzehnt – ein Wert, der vor dem Hintergrund der ungenauen SST‐​Werte zu beurteilen wäre. Außerdem machen Menschen Landmassen wärmer oder kälter (2 % ± 3 %) und bringen das Eis zum Schmelzen oder auch nicht (1 % ± 1 %).

An dieser Stelle könnte man das Klimapanikbuch vielleicht zuklappen. Aber die herrschenden Klimawissenschaften und die laiengerechte Aufbereitung ihrer Ergebnisse in der Sechserbroschüre sind auch ohne Weltuntergang interessant.

Kausalzusammenhänge

Die Überschrift in der Sechserbroschüre sagt, Menschen würden den Treibhauseffekt »verstärken«. Doch der Zusammenhang zwischen menschlich erhöhten atmosphärischen Treibhausgas‐​Konzentrationen und atmosphärischen Temperaturen, den die Sechserbroschüre dann voraussetzt, ist nicht derselbe Zusammenhang, der dem Treibhauseffekt zugrunde liegt.

Ozeane, Landmassen und Eis als möglicherweise bis sicher als solche wirkende Wärmespeicher kommen in gängigen Erklärungen und Berechnungen des Treibhauseffekts nicht vor.

In den Rahmen üblicher Erklärungen zum Treibhauseffekt passt es auch nicht hinein, dass mehr atmosphärisches CO2 mit 1 % ± 1 % die Atmosphäre erwärmt oder auch nicht. Ebensowenig passen ORL/​Wolken‐​Verwicklungen mit der kurzwelligen Energie, wie sie in der Akademieantwort der letzten Folge auftauchten, zu den gängigen Erklärungen des Treibhauseffekts.

Beim menschengemachten Klimawandel geht es demnach um kausale Zusammenhänge, die von üblichen Erklärungen zum Treibhauseffekt mit seinen »seit mehr als 150 Jahren« bekannten Zusammenhängen nicht abgedeckt sind.

Beim menschengemachten Klimawandel haben die kausalen Zusammenhänge laut Sechserbroschüre viel mit Ozeanen zu tun. Soweit Menschen involviert sind, könnte man dazu etwa fragen: Was sind die physikalischen Mechanismen, mit denen sich durch zusätzliches atmosphärisches CO2 eingefangene zusätzliche Photonen‐​Energie in Wärme der Ozeane verwandelt? Wie bzw. wie stark wirkt sich die so verursachte ozeanische Wärme auf boden‐ bzw. meeresspiegelnahe Temperaturen der Atmosphäre aus?

Die angegebene Quelle, Kapitel 3 des fünften IPCC‐​Sachstandsberichts von 2013, gibt einen Hinweis:

»Dieses Kapitel fasst die Beobachtungen von Veränderungen im Ozean zusammen […] Die Zuordnung von Ozeanveränderungen, einschließlich der Frage, inwieweit beobachtete Veränderungen mit dem anthropogenen Klimawandel vereinbar sind, wird in Kapitel 10 behandelt.« (Seite 260)

Kapitel 10 kommt zu folgenden Schlüssen (Seite 869f):

  • »Mehr als die Hälfte des beobachteten Anstiegs der globalen mittleren Oberflächentemperatur (GMST) von 1951 bis 2010 ist sehr wahrscheinlich auf den beobachteten anthropogenen Anstieg der Treibhausgaskonzentrationen (THG) zurückzuführen.«
  • »Es ist äußerst wahrscheinlich, dass mehr als die Hälfte des beobachteten Anstiegs der GMST zwischen 1951 und 2010 durch menschliche Aktivitäten verursacht wurde.«
  • »Es ist praktisch sicher, dass die beobachtete globale Erwärmung seit 1951 nicht allein durch interne Variabilität erklärt werden kann.«
  • »Es ist sehr wahrscheinlich, dass anthropogene Einflüsse einen wesentlichen Beitrag zur Erwärmung des oberen Ozeans (oberhalb von 700 m) geleistet haben, die seit den 1970er Jahren beobachtet wurde.«

Die unterstrichenen Ausdrücke sind eine Fortentwicklung der »wertenden Schätzungen des Vertrauens« vom dritten IPCC‐​Sachstandsbericht. Sie beziehen sich auf eine Skala der »Wahrscheinlichkeit des Zutreffens einer Aussage«, im Unterschied zur farbverlaufsmäßigen Skala des »Vertrauens in das Zutreffen einer Aussage« der letzten Folge.

Wie kommen die aufgelisteten Wahrscheinlichkeitsaussagen über menschliche Einflüsse zustande?

Kapitel 10 erklärt das so:

»Im Allgemeinen wird eine Komponente einer beobachteten Veränderung auf einen bestimmten Kausalfaktor zurückgeführt, wenn die Beobachtungen nachweislich mit den Ergebnissen eines prozessbasierten Modells, das den betreffenden Kausalfaktor einschließt, übereinstimmen und mit einem alternativen, ansonsten identischen Modell, das diesen Faktor ausschließt, nicht übereinstimmen.« (Fünfter IPCC‐​Sachstandsbericht, Seite 872)

Wenn das IPCC und an ihm orientierte Klimawissenschaftlerinnen sagen, menschliche CO2-Emissionen »verursachten« Erhöhungen der GMST, der mittleren Ozeantemperaturen und anderes mehr, dann bedeutet das Wort »verursachen« demnach nicht das, was Laien darunter verstehen könnten, oder was in üblichen naturwissenschaftlichen Zusammenhängen darunter verstanden wird. Es scheint etwas zu bedeuten, das wesentlich auf Computermodellen gründet.

Da in der Klimadebatte das Verursachen von Klimaveränderungen durch Menschen die zentrale Rolle spielt, ist es wichtig zu verstehen, was nach IPCC und an ihm orientierten Klimawissenschaftlerinnen, wie auch nach der Sechserbroschüre, das Wort »verursachen« sachlich eigentlich beinhaltet. Dem soll im Folgenden nachgegangen werden.

Verursacht im Alltagssinn wird eigentlich nichts

Eine »beobachtete Veränderung« wird durch etwas festgestellt, das das IPCC nach einem »Leitfaden für gute Praxis« (Hegerl et al. 2010) als »Detektion« bezeichnet:

»Die Detektion von Veränderungen ist definiert als der Prozess des Nachweises, dass sich das Klima oder ein vom Klima beeinflusstes System in einem bestimmten statistischen Sinne verändert hat, ohne dass ein Grund für diese Veränderung angegeben wird. Eine festgestellte Veränderung wird in den Beobachtungen erkannt, wenn die Wahrscheinlichkeit ihres zufälligen Auftretens allein aufgrund interner Variabilität als gering eingestuft wird«. (Fünfter IPCC‐​Sachstandsbericht, Seite 872)6

Die Zurückführung »einer beobachteten Veränderung auf einen bestimmten Kausalfaktor«, d.h. die Erklärung von etwas zur »Ursache« von etwas anderem, bezeichnet das IPCC als »Attribution«.

Dazu heißt es in Kapitel 10 des fünften IPCC‐Sachstandsberichts:

»Die Attribution erfordert nicht, dass jeder Aspekt der Reaktion auf den betreffenden Kausalfaktor korrekt simuliert wird, und sie impliziert dies auch nicht. […]

Einer der einfachsten Ansätze zur Detektion und Attribution ist der Vergleich von Beobachtungen mit Modellsimulationen, die nur natürliche Einflüsse berücksichtigen, mit Simulationen, die alle relevanten natürlichen und anthropogenen Einflüsse berücksichtigen. Wenn die beobachteten Veränderungen mit den Simulationen übereinstimmen, die den menschlichen Einfluss einbeziehen, und nicht mit denen, die dies nicht tun, wäre dies für die Attribution ausreichend, vorausgesetzt, es gibt keine anderen mitwirkenden Einflüsse und unter der Annahme, dass die Modelle die Reaktionen auf alle externen Einflüsse korrekt simulieren.

Dies ist eine starke Annahme, und die meisten Studien zur Attribution vermeiden es, sich darauf zu verlassen. Stattdessen wird in der Regel davon ausgegangen, dass die Modelle die Form der Reaktion auf externe Einflüsse (d.h. das großräumige Muster in Raum und/​oder Zeit) korrekt simulieren, aber nicht, dass die Modelle die Größe der Reaktion korrekt simulieren.« (Seite 873)

»Formale Studien zur Attribution […] liefern objektive Schätzungen darüber, wie viel der jüngsten Erwärmung [oder einer anderen untersuchten Größe, z.B. Luftfeuchtigkeit] auf den menschlichen Einfluss zurückzuführen ist.« (Seite 876)

Grob vereinfacht gehen klimabezogene Attributionsforschungstreibende so vor:

  1. Sie lassen ein Klimamodell mit Einstellungen laufen, die so beschaffen sind, wie sie sich das Klima ohne menschengemachte Treibhausgas‐​Emissionen vorstellen. Anhand dieser Simulationen stellen sie zwei Dinge fest: die Entwicklung der untersuchten Klimaveränderung ohne menschengemachte Treibhausgas‐​Emissionen und das Ausmaß »natürlicher« Schwankungen. Dieser Simulationslauf wird als »kontrafaktisch« bezeichnet, weil er sich auf eine faktisch nicht vorhandene Realität bezieht.
  2. Die Attributionsforschungstreibenden lassen das Klimamodell mit Einstellungen laufen, die so beschaffen sind, wie sie sich die Welt mit menschengemachten Treibhausgas‐​Emissionen vorstellen. Anhand dieser Simulationen stellen sie die Entwicklung der untersuchten Klimaveränderung unter menschlich beeinflussten Bedingungen fest. Dieser Simulationslauf wird als »faktisch« bezeichnet. Da es sich um Simulationen handelt, die zudem auf ungenauen Strahlungscodes, ungenauen bis nicht vorhandenen Beobachtungsdaten usw. beruhen, nenne ich sie lieber »nichtkontrafaktisch«.
  3. Kommt weder bei 1 noch bei 2 etwas heraus, das (noch nicht einmal hinsichtlich der »Form der Reaktion«) mit Beobachtungsdaten übereinstimmt, wird eine Fehljustierung im Klimamodell oder auch ein Fehler in den Beobachtungsdaten angenommen. Kommt bei 1 etwas heraus, das (mindestens hinsichtlich der »Form der Reaktion«) mit Beobachtungsdaten übereinstimmt, erklären die Attributionsforschungstreibenden die Klimaveränderung für natürlich bedingt. Kommt bei 1 nicht etwas heraus, das (mindestens hinsichtlich der »Form der Reaktion«) mit Beobachtungsdaten übereinstimmt, aber bei 2, so erklären die Attributionsforschungstreibenden die Klimaveränderung für mindestens teilweise menschlich verursacht.
  4. Im letzteren Fall berechnen die Attributionsforschungstreibenden mit Hilfe statistischer Verfahren das Ausmaß und die Gewissheit der menschlichen Verursachung. Die Berechnungsergebnisse hängen vom Ausmaß der Klimaschwankungen ab, die als »natürlich« eingestuft werden, und vom Ausmaß der Übereinstimmung der beiden Simulationsläufe mit Beobachtungsdaten. Tritt zum Beispiel eine Klimaveränderung bei kontrafaktischen Simulationen (1), die zu den Beobachtungsdaten (oder deren »Form«) passt, nur mit sehr geringer Wahrscheinlichkeit auf, aber bei nichtkontrafaktischen Simulationen (2) fast immer, wird ein menschlicher Einfluss für »sehr wahrscheinlich« oder »äußerst wahrscheinlich« erklärt. Daher stammen die unterstrichenen Ausdrücke mit ihren Prozentzahlen in den IPCC‐​Sachstandsberichten.7

Das Ergebnis einer Attributionsstudie, hier bezogen auf globale Oberflächentemperaturen, sieht etwa so aus:

Grafiken aus dem fünften IPCC‐​Sachstandsbericht, Seite 879
Die linke Grafik ist nichtkontrafaktisch. Sie zeigt die Entwicklung von CMIP5‐​simulierten globalen Oberflächentemperaturen mit eingeschalteten »anthropogenen und natürlichen externen Klimatreibern« (bunte Linien und Bereiche). Die schwarze Linie zeigt Beobachtungsdaten. Die rechte Grafik ist kontrafaktisch: als menschengemacht eingestufte Klimatreiber sind ausgeschaltet. Die CMIP5‐​simulierten globalen Oberflächentemperaturen fallen nun um rund 0,5 °C zu niedrig aus. Also müssen menschliche Einflüsse verursachend wirken.

Werden in einem Klimamodell, dessen nichtkontrafaktische Simulationen gut mit den Beobachtungsdaten übereinstimmen, Dinge umgestellt, um kontrafaktische Simulationen vorzunehmen, kommt ziemlich unvermeidlich etwas heraus, das weniger gut zu den Beobachtungsdaten passt. Auf diese Weise können Attributionsstudien »nachweisen«, dass Menschen in einem erkennbaren Ausmaß das Klima beeinflusssen, sobald in den nichtkontrafaktischen Simulationen die vom Modell bzw. seinen Betreuungspersonen als »natürlicherweise möglich« eingeschätzten Schwankungen des Klimas genügend geringfügig ausfallen.

Trotz der ihm innewohnenden naturwissenschaftlichen Nichtprüfbarkeiten könnte man das Verfahren vielleicht ganz nützlich finden, wenn die Klimamodelle physikalisch ausreichend zutreffend und detailliert simulieren könnten. Im Zitat oben steht allerdings, das sei eine »starke Annahme«, die »die meisten Studien zur Attribution vermeiden«.

Im sechsten IPCC‐​Sachstandsbericht von 2021/​2023 hat sich am Verfahren und den Ergebnissen nichts wesentlich geändert:

Grafik aus dem sechsten IPCC‐​Sachstandsbericht, Seite 6
Braun: CMIP6‐​simulierte globalen Oberflächentemperaturen mit eingeschalteten »anthropogenen und natürlichen externen Klimatreibern«. Schwarze Linie: Beobachtungsdaten. Grünblau: als anthropogen eingestufte Klimatreiber sind ausgeschaltet.

Die bunten Bereiche in den »Nachweis«-Grafiken zur menschlich verursachten globalen Erwärmung geben die Streuungen der Klimamodell‐​Simulationen an.

Seit dem fünften Sachstandsbericht hat sich die Streuung der von 35 auf über 100 angestiegenen Anzahl der Modelle untereinander nicht verringert. Sie liegt in der Größenordnung der Temperaturerhöhung, die als menschengemacht nachgewiesen werden soll.

Weshalb werden überhaupt so viele Modelle benutzt? Gibt es keine Forschungsergebnisse, anhand derer man die »physikalisch besten« Modelle heraussortieren könnte? Ist es ein naturwissenschaftlich seriöses Verfahren, aus einer wachsenden Anzahl von Modellen Mittelwerte zu berechnen, um Aussagen über reale Prozesse zu treffen?

Logik der Klimaforschung

Manchen – mich eingeschlossen – erscheint es unglaubhaft, dass Beteiligte der etablierten Klimawissenschaften glauben könnten, durch den Vergleich kontrafaktischer mit nichtkontrafaktischen Klimasimulationen realweltliche Kausalzusammenhänge nachweisen zu können.

Doch die oben zitierten Wahrscheinlichkeitsaussagen des IPCC über den anthropogenen Temperatureinfluss wie auch die Berechnungen von »CO2-Budgets« nach dem Pariser Abkommen sprechen für die Existenz eines Glaubens an Klimamodelle als Realitätsrepräsentanz – wenn man nicht unterstellen will, dass bewusst gelogen wird.

Eine ernst gemeinte, 2017 erschienene Studie drückt den Glauben recht deutlich aus:

»Wir stellen Schätz‐ und Testverfahren vor, die auf Wahrscheinlichkeits­maximierung basieren, und zeigen, dass die Unsicherheit bei der Klimamodellierung leicht berücksichtigt werden kann. […] Unser Ansatz basiert auf dem Paradigma ›Modelle sind statistisch ununterscheidbar von der Wahrheit‹, wobei die Differenz zwischen einem beliebigen Modell und der Wahrheit dieselbe Verteilung hat wie die Differenz zwischen einem beliebigen Modellpaar, aber es können auch andere Möglichkeiten in Betracht gezogen werden. […] In Übereinstimmung mit dem letzten IPCC‐​Sachstandsbericht stellen wir fest, dass der größte Teil der beobachteten Erwärmung in diesem Zeitraum (+0,65 K) anthropogenen Einflüssen zuzuschreiben ist (+0,67 ± 0,12 K, 90 % Konfidenzintervall), mit einem sehr begrenzten Beitrag von natürlichen Einflüssen ( ‑0,01 ± 0,02 K).«8 [»K« bedeutet hier dasselbe wie »°C«. Lieber nicht fragen, wieso kein 95 % Konfidenzintervall angegeben wird.]

Auf Anhieb im Internet zu finden sind Vorträge von Wissenschaftlerinnen, die nahe legen, dass der Glaube an Klimamodelle als Realitätsrepräsentanz auch in Fleisch und Blut gehegt wird. Hier sind zwei Beispiele aus der Fingerabdruck‐Szene:

Der Klimawissenschaftler Benjamin D. Santer, dessen Erkenntnisse bereits in der vorigen Folge vorkamen, vergleicht in seinem Vortrag zwei Kernerkenntnisse des IPCC, eine von 1995 und eine von 2013:

1995: »Die Faktenlage deutet auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin.« (Zweiter IPCC‐​Sachstandsbericht, Seite 22)10

2013: »Einflüsse des Menschen wurden in der Erwärmung der Atmosphäre und des Ozeans, in den Veränderungen des globalen Wasserkreislaufs, im Rückgang von Schnee und Eis und im Anstieg des mittleren globalen Meeresspiegels nachgewiesen, und es ist äußerst wahrscheinlich, dass sie die Hauptursache der beobachteten Erwärmung seit Mitte des 20. Jahrhunderts sind.« (Fünfter IPCC‐​Sachstandsbericht, offizielle deutsche Übersetzung, Seite 48)11

Hinsichtlich der Kernerkenntnis von 1995 gab es seinerzeit einigen Ärger, da zu denen, die das IPCC kritisierten, noch Wissenschaftlerinnen gehörten, die öffentliches Ansehen genossen und erst im Verlauf der Zeit diskreditiert werden konnten (wenn sie nicht einfach in stille Rente gingen). Das zuständige IPCC‐​Wissenschaftsteam hatte in seinem Abschlussbericht geschrieben:

»Jegliche Behauptungen zur positiven Identifizierung und Attribution eines signifikanten Klimawandels werden wahrscheinlich umstritten bleiben, solange die Unsicherheiten in der gesamten natürlichen Variabilität des Klimasystems nicht reduziert sind.«

Diese und weitere Aussagen von wissenschaftlicher Seite wurden aus dem veröffentlichten Sachstandsbericht entfernt.12

Fingerabdrücke, regionale Modellleistungen und natürliche Variabilität

Aus Santers Vortrag geht hervor, dass der »Wissenszuwachs« seit 1995 hauptsächlich auf der Einführung von Fingerabdruck‐​Methoden beruht.

Fingerabdrücke werden auf Basis von Attributionsstudien quasi durch Hoch‐ und Runterschalten klimatischer Einflussfaktoren ermittelt.

»Fingerabdruck‐​Methoden verwenden Klimamodell‐​Simulationen, um vollständigere Informationen über die erwartete Reaktion auf verschiedene externe Faktoren, einschließlich räumlicher Informationen, und die Eigenschaften der internen Klimavariabilität zu liefern. Dies kann dazu beitragen, Muster extern angetriebener Veränderungen sowohl voneinander als auch von interner Variabilität zu trennen«. (Fünfter IPCC‐​Sachstandsbericht, Seite 877)

Wie gut funktionieren Klimamodelle hinsichtlich räumlicher Informationen und Klimavariabilitäten?

In einer Untersuchung eines Klimamodells von 2020 heißt es verallgemeinernd, Überschätzungen von Meeresoberflächentemperaturen (SSTs) im tropischen Atlantik seien »ein seit langem bestehendes Problem« von Klimamodellen.13

Ein Vergleich zwischen Klimamodellen und Proxydaten (Anhand von Eisbohrkernen, Sedimenten, Pollen und allem Möglichen geschätzte Temperaturdaten) im Zeitfenster von Jahrzehnten (Dekaden) bis Jahrhunderten fand 2023, dass Klimamodelle »die regionale Variabilität auf multidekadischen und längeren Zeitskalen unterschätzen«, was »Klimaprojektionen und Attributionsstudien verzerren« könne.14

Ein Forschungsartikel, der 2024 in der Zeitschrift der US‐​amerikanischen Akademie der Wissenschaften erschien, hat den Titel: »Beobachtete Feuchtigkeitstrends in trockenen Regionen widersprechen Klimamodellen«. Der Forschungsartikel stellt fest:

»In den ariden/​semiariden [sehr trockenen und trockenen] Regionen der Welt ist das vorherrschende Signal in allen Modellsimulationen ein Anstieg des atmosphärischen Wasserdampfs im Durchschnitt der letzten vier Jahrzehnte, der mit der erhöhten Wasserdampfspeicherkapazität einer wärmeren Atmosphäre zusammenhängt. In den Beobachtungen hat dieser Anstieg des atmosphärischen Wasserdampfs nicht stattgefunden […]. Dies zeigt eine große Lücke in unserem Verständnis und unseren Modellierungsfähigkeiten, die schwerwiegende Auswirkungen auf die Hydroklimaprojektionen, einschließlich der Brandgefahr, haben könnte.«15

Weltgebiete nach UNEP‐​Ariditäts/​Humiditätsindizes, Stand 2023
Gebiete in hellerem Rot und in Orange sind arid bzw. semiarid (»sehr trocken« und »trocken«) und machen grob 26 % der Erdoberfläche aus; dunkelrote Gebiete sind hyper‐​arid (»extrem trocken«).16

Eine Literaturzusammenfassung von 2024, an der 21 Klimawissenschaftlerinnen mitwirkten, stellt fest:

»Einige beobachtete regionale Klimaveränderungen, wie die verstärkte Erwärmung der Arktis und die Kontraste zwischen Land und Meer, wurden von Klimamodellen vorhergesagt. Viele andere beobachtete regionale Veränderungen, wie z.B. Veränderungen der tropischen Meeresoberflächentemperatur und der Monsunregenfälle, werden jedoch von Klimamodell‐​Ensembles nicht gut simuliert […]

Die dynamischen Aspekte des Klimawandels, d.h. diejenigen, die mit Veränderungen der atmosphärischen oder ozeanischen Zirkulation verbunden sind und die sich auch erheblich auf den regionalen Klimawandel auswirken, sind aufgrund konkurrierender Theorien und des bedeutenden Einflusses der internen Variabilität seit langer Zeit schwieriger zu ermitteln […] Modelle haben gezeigt, dass sie einige der sich abzeichnenden regionalen Signale zuverlässig erfassen, doch die Diskrepanzen zwischen Modellen und Beobachtungen haben sich in verschiedenen Regionen gehäuft. […]

Die sich häufenden Diskrepanzen sind nicht gut verstanden und werden durch mehrere wirkliche und scheinbare Rätsel […] und Limitierungen (z.B. die Entflechtung der Rolle des Strahlungsantriebs gegenüber der internen Klimavariabilität; die Auswirkungen physikalischer Prozesse, die nicht in den Modellen enthalten sind; die Unsicherheit des Strahlungsantriebs; fortbestehende Modellverzerrungen und die Grenzen instrumenteller Beobachtungen) erschwert.«17

Klimamodelle sind zuverlässig

Auf Seite 7 erklärt die Sechserbroschüre, weshalb wir darauf vertrauen können, dass der Vergleich kontrafaktischer mit nichtkontrafaktischen Klimasimulationen Auskunft über realweltliche Kausalbeziehungen liefert:

»In den vergangenen Jahrzehnten hat die Klimaforschung immer detailliertere Modelle des Klimasystems der Erde entwickelt. Diese haben bereits in den 1970er und 1980er Jahren die derzeit ablaufende Erwärmung korrekt vorhergesagt.

Der weltweite Temperaturanstieg bewegt sich heute in dem Korridor, den der Weltklimarat (IPCC) in seinem ersten Sachstandsbericht 1990 erwartet hat. Auch andere Aussagen früherer Klimamodelle wurden später durch die Realität bestätigt, zum Beispiel zu Gletscherschmelze, Meeresspiegelanstieg oder der Zunahme von Dürren.13«

In seinem Wortgebrauch rückte das IPCC irgendwann nach dem ersten Sachstandsbericht davon ab, etwas »vorhersagen« (to »predict«) zu wollen. Ab irgendwann war von »Projektionen« die Rede und bekam man auf den Deckel, wenn man das Wort »Vorhersagen« benutzte.

Die »Projektionen« in den sechs Sachstandsberichten, die das IPCC bisher veröffentlichte, sind schwer miteinander zu vergleichen. Sie beziehen sich auf unterschiedliche Zeiträume und unterschiedliche Grundbedingungen. Jemand mit viel Ahnung müsste ziemlich viel herumrechnen, damit ein Vergleich keiner von Äpfeln mit Birnen wäre.

Einen professionellen Vergleich der vom IPCC im Laufe der Jahre projizierten globalen Temperaturentwicklung konnte ich nicht finden, auch keinen Quellennachweis dazu in der Sechserbroschüre.18

Oft wird statt der Modelle eines ihrer Rechenergebnisse verglichen: die »ECS«, »equilibrium climate sensitivity« – »Gleichgewichtsklimasensibilität« oder abkürzend »Klimasensitivität«. Vereinfacht verstanden, gibt die ECS die globale Temperaturerhöhung an, die aus Klimasimulationen herauskommt, nachdem sich das Computerklima nach einer plötzlichen Verdoppelung der CO2-Konzentration temperaturmäßig (einigermaßen) stabilisiert hat.19 Oft wird noch ein zweites Maß für die Klimasensitivität angegeben: die »TCR«, »transient climate response« – »Klimareaktion im Übergang«. Zur Ermittlung der TCR wird in der Atmosphäre von Klimamodellen eine bestehende CO2-Konzentration pro Jahr um 1 % erhöht. So lassen sich mehr Einflüsse berücksichtigen als beim ECS, z.B. die Wärmeaufnahme durch Ozeane. Sobald sich die CO2-Konzentration verdoppelt hat, wird geschaut, welche globale Temperaturerhöhung in den Modellen eingetreten ist.

Die ECS‐ und TCR‐​Werte, die Klimamodelle unter denselben Grundbedingungen (Szenarien) hervorbringen, sind unterschiedlich. Diesen Unterschieden liegen unterschiedliche physikalische Vorstellungen der jeweiligen Modellmachenden über die Funktionsweise des Klimas zugrunde. Da darüber bisher kein »Konsens« erzielt wurde, veröffentlicht das IPCC Wertebereiche.

Hier ist ein Vergleich der ECS‐ und TCR‐​Bereiche der IPCC‐Sachstandsberichte:

Sachstandsbericht

ECS [°C]

TCR [°C]

Erster von 1990/​1992, Seite 75 1,5 bis 4,5
Zweiter von 1995, Seiten 324 | 297 1,5 bis 4,5 2,1 bis 4,6
Dritter von 2001, Seiten 421 | 527,537 1,5 bis 4,5 1,1 bis 3,1
Vierter von 2007, Seiten 727 | 723
(ECS: »likely«-Bereich)
2,0 bis 4,5 1,5 bis 2,8
Fünfter von 2013, Seiten 81 | 81
(ECS: »likely«-Bereich)
1,5 bis 4,5 1,0 bis 2,5
Sechster von 2021/​2023, Seiten 72, 926 | 93
(ECS: »likely«-Bereich)
Der ECS »very likely«-Bereich ist 2 bis 5
2,5 bis 4,0 1,4 bis 2,2

Hätten die vom IPCC im Laufe der Jahre genannten ECS‐​Bereiche eine realweltlich‐​physikalische Bedeutung, so würden sie einen Bereich abdecken zwischen: »zumindestens bei gebrauchswertorientierter Wirtschaftsweise noch zu handhabende globale Erwärmung« und »Menschheitskatastrophe«. Dieser »Korridor« ist so breit, dass es schwer ist, nicht von ihm herunterzufallen. Die TCR‐​Schätzungen liegen zwar dichter beeinander, reichen bei CO2-Verdoppelung aber seit dem letzten Sachstandsbericht 2021/​2023 vielleicht nicht zur Apokalypse, da es nach mehrheitsfähigen Darstellungen vor rund 6.500 Jahren bereits vergleichbare Temperaturen gegeben haben könnte (siehe Grafik »Globale oberflächennahe Temperaturen des Holzäns« unten).

Manche Klimawissenschaftlerinnen, die im Fernsehen auftreten dürfen, erwecken den Eindruck, die Streubreite von Klimamodellen folge aus der Unwägbarkeit menschlicher Aktivitäten und Wirtschaftsentwicklungen. Doch auch unter denselben Ausgangs‑, Umwelt‐ und Wirtschaftsbedingungen liegen die Simulationsansagen verschiedener Modelle zur globalen Temperaturentwicklung weit auseinander – was, wenn man die oben erwähnte Sache mit dem »chaotischen System« berücksichtigt, nichts Schlechtes über die Modelle auszusagen braucht.

Entwicklungen der globalen mittleren Oberflächentemperatur‐Anomalien
laut IPCC‐​Sachstandsbericht 2021/​2023, CMIP6
Blau: Szenario SSP1‑2.6 (CO2-Emissionen werden bis ca. 2075 auf netto Null gesenkt); Orange: SSP3‑7.0 (CO2-Emissionen verdoppeln sich bis ca. 2100)20

Eine Studie von 2020, die eine Auswahl von 15 Klimamodellen untersuchte, von denen zwischen 1970 und 2007 Projektionen veröffentlicht wurden, fand, dass die Mehrzahl der untersuchten Modelle mit den Beobachtungsdaten übereinstimmte – dies mit und ohne Berücksichtigung von Aerosolen, mit und ohne Berücksichtigung von Regen, mit und ohne Berücksichtigung von Wolken oder Eis, mit und ohne Berücksichtigung von Ozeanströmungen usw. Sollte das nicht eher misstrauisch als vertrauensseelig machen?

2016 schaute der berühmte Klimaschützer, Klimamodellist und Leiter des Goddard Institute for Space Studies (GISS) der NASA, Gevin Schmidt, etwas genauer hin. Bei seinem Vergleich zwischen CMIP5‐​Klimamodellen und Satellitendaten der mittleren Troposphäre (rund 10 km Höhe) kam etwa folgende Veranschaulichung heraus:

Globale Temperatur-Entwicklung der mittleren Troposphäre 1979 bis 2015
(Vereinfacht nachgezeichnet. Weshalb nur 95 % der CMIP5‐​Klimamodelle verwendet
wurden und nicht alle, hat bestimmt einen guten Grund.)

Nach der Grafik zu urteilen, in der der orangene Bereich die Bandbreite der Projektionen von 95 % der Klimamodelle unter denselben Grundbedingungen angibt, liegt eine unbekannte Anzahl von Modellen so sehr daneben, dass der Mittelwert aller Modelle (rote Linie) ab rund 20 Projektionsjahren deutlich von den Satellitendaten (blaue Linien) abweicht – ein Hinweis darauf, dass mit physikalischen Grundvorstellungen, die den Modellen einprogrammiert sind, etwas nicht stimmen könnte.21 Laut Schmidt sind die Abweichungen nicht schlimm. Modelle sind schließlich zum Forschen da!

Auch in anderen Dingen lagen Klimamodelle mit Projektionen daneben. Bezüglich der als »natürlich« erwarteten Klimavariabilität beispielsweise stellte der fünfte IPCC‐​Sachstandbericht eine rund 15‐​jährige Erwärmungspause fest, deren Möglichkeit fast kein CMIP5‐​Modell vorsah (Seite 61f). In der Folgezeit erschienen viele Studien, die diesen »Hiatus« zwischen 1998 und 2012 zu erklären und/​oder wegzuerklären versuchten. Die oben erwähnte Erklärung in der Sechserbroschüre, nach der Treibhausgase in der Atmosphäre zu 99 % keine Erwärmung »auf der Erdoberfläche« bewirken, gibt die dominante Haltung wieder, die aus dem »Hiatus«-Problem entstand. Damit in Zusammenhang steht der Wechsel der Klimaberichterstattung von »globaler Erwärmung« zu »Klimawandel« als Hauptbegriff.

Die Sechserbroschüre fährt auf Seite 7 fort:

»Es hat sich also vielfach gezeigt, dass moderne Klimamodelle reale Klimaentwicklungen zutreffend abbilden können. Deshalb sind Schlussfolgerungen für die künftige Klimaentwicklung, die wir heute aus den Ergebnissen von Modellrechnungen ziehen können, eine verlässliche Grundlage für politische Entscheidungen.«

Der fünfte IPCC‐​Sachstandsbericht widerspricht dem »Deshalb« im letzten Satz:

»Im Allgemeinen gibt es keine direkte Möglichkeit, quantitative Bewertungen vergangener Leistungen in zuverlässige Aussagen über die Zuverlässigkeit künftiger Klimaprojektionen umzuwandeln.« (Kapitel 9, Seite 745)

Weshalb nicht?

Im vierten IPCC‐​Sachstandsbericht von 2007 findet sich folgende Erklärung: Die Modelle werden frisiert, ohne dass man physikalische Grundlagen allzu wichtig nimmt. In der klimawissenschaftlichen Szene lautet der gängige Ausdruck dafür: »tunen« (sprich: tjuunen). Das IPCC von 2007 nennt es »Flux‐​Anpassungen« und »Flux‐​Korrekturen«:

»Der hohe Wert, der auf den Realismus des simulierten Basiszustands gelegt wurde, lieferte eine Begründung für die Einführung von ›Flux‐​Anpassungen‹ bzw. ›Flux‐​Korrekturen‹ […]. Dabei handelte es sich im Wesentlichen um empirische Korrekturen, die nicht mit physikalischen Prinzipien begründet werden konnten und aus willkürlichen Hinzufügungen von Wärme‐ und Salzgehaltflüssen an der Oberfläche bestanden, um das Abdriften des simulierten Klimas von einem realistischen Zustand zu verhindern. […]

Zum Zeitpunkt des TAR [dritter IPCC‐​Sachstandsbericht von 2001] hatte sich die Situation jedoch weiterentwickelt, und etwa die Hälfte der im TAR bewerteten gekoppelten GCMs verwendete keine Flux‐​Anpassungen. In diesem Bericht wurde festgestellt, dass ›einige nicht flux‐​angepasste Modelle jetzt in der Lage sind, stabile Klimatologien von vergleichbarer Qualität wie fluxbereinigte Modelle zu erhalten‹ (McAvaney et al., 2001). Seitdem hat sich in einigen Modellierungszentren die Entwicklung weg von der Flux‐​Korrektur (bzw. Flux‐​Anpassung) fortgesetzt, obwohl eine Reihe von Modellen, die dem neuesten Stand der Technik entsprechen, weiterhin darauf beruhen.« (Seite 117)

Vielleicht werden demnach heutzutage einige Modelle nicht oder nur ein wenig »getunt«? Welche Modelle wären das? Nicht eher diejenigen Modelle, die nicht so gut zu den Beobachtungsdaten passen? Wie sollten Modelle, die die Realität unvermeidlich vereinfachen, ohne »Tunen« mehr als nur grob zu den Beobachtungsdaten passen? Sollte die Passgenauigkeit von Modellen zu Beobachtungsdaten nicht eher misstrauisch als vertrauensseelig machen?

2017 erschien im Journal der Amerikanischen Gesellschaft für Meteorologie ein Artikel mit dem Titel »Die Kunst und Wissenschaft des Klimamodell‐​Tunings«. Darin steht, dass es normal ist, im Zusammenhang mit der Energiebilanz der Erde Tuning zu betreiben. Nebenbei erfährt man etwas zur Breite von Temperatur-»Korridoren«:

»Eine gängige Praxis […] ist die Anpassung der Energiebilanz der Oberseite der Atmosphäre oder der Oberfläche in reinen Atmosphärensimulationen, die beobachteten Meeresoberflächentemperaturen ausgesetzt sind (Komponentenabstimmung), und die Überprüfung, ob die in gekoppelten [Ozeane und Atmosphäre enthaltenden] Modellen erhaltene Temperatur realistisch ist. Dieses Tuning der Energiebilanz ist von entscheidender Bedeutung, da eine Änderung der globalen Energiebilanz um 1 W/​m2 in gekoppelten Simulationen je nach Empfindlichkeit des jeweiligen Modells typischerweise eine Änderung der mittleren globalen Oberflächentemperatur um etwa 0,5 – 1,5 K bewirkt.«22

Eine Studie von 2022 erklärt es zur »Innovation«, wenn ein bißchen mehr Physik und Naturbeobachtung in die Modellwelt eingebracht wird:

»Kürzlich wurde eine innovative Technik, die so genannte emergente Einschränkung, entwickelt, um die Unsicherheit in den Projektionen des Klimamodellensembles einzuschränken. Die Unsicherheit in Modellsimulationen kann durch Beobachtungen eingeschränkt werden, um genauere Prognosen des zukünftigen Klimawandels zu erhalten, indem physikalisch erklärbare empirische Beziehungen zwischen dem simulierten aktuellen und zukünftigen Klima entwickelt werden.«23

Zu den explizit als »getunt« erklärten Modellen gehört das Max Planck Institute for Meteorology Earth System Model Version 1.2 (MPI-ESM1.2), das unter anderem als Teil von CMIP6 in Gebrauch ist, dessen Weiterentwicklung heute aber nicht mehr finanziert wird. 2020 schrieben zwei Modellisten noch stolz:

»Wir haben dokumentiert, wie wir das globale Klimamodell MPI-ESM1.2 so getunt haben, dass es mit der instrumentell aufgezeichneten Erwärmung übereinstimmt; ein Unterfangen, das eindeutig erfolgreich war. Aufgrund der historischen Abfolge der Ereignisse haben wir uns dafür entschieden, dies praktisch zu tun, indem wir einen ECS von etwa 3 K [3 °C] mit Hilfe von Wolkenrückkopplungen anstrebten, im Gegensatz zu einer Abstimmung des Aerosol‐​Antriebs. Die explizite Abstimmung auf die instrumentellen Aufzeichnungen ist etwas Neues am Max‐​Planck‐​Institut, aber in einer breiteren Perspektive ist es vielleicht nicht so neu.«24

Im Zitat sagen die Klimamodellmachenden im Grunde genommen: Wir legen die ECS nach Nase fest, indem wir an den Wolken rummachen. Haben sie etwa nicht das gute Recht dazu? Wozu das dann politisch/​wirtschaftlich benutzt wird, liegt schließlich nicht in ihrer Verantwortung.

Um 2020 herum entstand eine Situation, in der Klimamodellierende einigen ihrer eigenen Modelle nicht mehr trauten. Deren ECS‐​Werte hatten im Vergleich zu CMIP5 einen Sprung nach oben gemacht.

Der Wissenschaftsjournalist Paul Voosen schrieb in der vom Mainstream geschätzten Zeitschrift Science im Juli 2021, kurz vor der offiziellen Veröffentlichung des sechsten IPCC‐​Sachstandsberichts, über CMIP6‐Modelle:

»Viele der weltweit führenden Modelle prognostizieren jetzt Erwärmungsraten, die die meisten Wissenschaftler:innen, einschließlich derer, die die Modelle entwickeln, für unplausibel schnell halten.«

Bereits im April 2019 berichtete derselbe Autor in Science über Probleme von CMIP6‐Modellen:

»Viele Wissenschaftler:innen sind skeptisch und weisen darauf hin, dass vergangene Klimaveränderungen, die in Eisbohrkernen und anderswo aufgezeichnet wurden, die hohe Klimasensitivität nicht stützen – ebenso wenig wie das Tempo der heutigen Erwärmung. […] Die Entwickler:innen der neuen Modelle stimmen zu.

Wissenschaftler:innen des Geophysical Fluid Dynamics Laboratory (GFDL) der National Oceanic and Atmospheric Administration [eine US‐​Behörde] haben eine Reihe von Verbesserungen in ihr Modell […] eingebaut. […] Michael Winton, ein GFDL‐​Ozeanograph, der bei der Entwicklung des Modells federführend war [… sagt:] ›Das ist uns ein Rätsel‹ […]

Die Entwickler:innen eines anderen Modells der nächsten Generation vom National Center for Atmospheric Research (NCAR) in Boulder, Colorado, fragen sich, ob ihre neue Darstellung von Wolken und Aerosolen erklären könnte, warum auch dieses Modell zu heiß läuft […] Die NCAR‐​Gruppe hat einen aktualisierten Datensatz zu den Emissionen von Aerosolen, feinen Partikeln aus der Industrie und natürlichen Prozessen, die sowohl das Sonnenlicht reflektieren als auch die Entwicklung von Wolken vorantreiben können, einbezogen. Die Aerosoldaten warfen alles über den Haufen; als das Modell das Klima des 20. Jahrhunderts simulierte, zeigte es nun kaum noch eine Erwärmung. ›Wir haben etwa ein Jahr gebraucht, um das herauszufinden‹, sagt Andrew Gettelman vom NCAR.«25

In einer Studie von 2020, die sich mit dem Problem der hohen Klimasensibilität von CMIP6‐​Modellen beschäftigt, steht:

»Eine Möglichkeit [zur Erklärung des Problems] ist, dass die neueren prognostischen Aerosol‐​Schemata, die Aerosol‐​Wolken‐​Wechselwirkungen einschließen, einen zu großen negativen Strahlungsantrieb erzeugt haben könnten, was dann eine stärkere Modellreaktion auf CO2 erforderlich machte«.26

Das heißt: Weil die Aerosol‐​Schemata für viel Abkühlung sorgten, könnten die Modellmachenden für eine Erhöhung der Klimasensibilität des CO2 gesorgt haben, damit aus den Simulationen »genügend« globale Erwärmung herauskommt.

Über Prozesse und Effekte, die mit Wolken zusammenhängen, besteht einige Unklarheit, so dass sich Einstellungen in diesem Bereich besonders gut für Ausgleichsmaßnahmen bei unerwünschten Simulationsergebnissen eignen. Eien Studie von 2022 meint dazu:

»Die Klimamodelle sind sich sehr uneinig darüber, wie stark die Erwärmung als Reaktion auf den Anstieg der Treibhausgase in der Atmosphäre ausfallen wird. Das liegt vor allem daran, dass sie sich nicht einig sind, wie die Wolken auf die Erwärmung reagieren – ein Prozess, der als Wolkenrückkopplung bekannt ist und die ursprünglich durch Kohlendioxid verursachte Erwärmung verstärken oder dämpfen kann.«27

Einige Modelle rechnen die Temperaturwirkung von Wolken in Bodennähe insgesamt als steigernd an, andere als senkend. Physikalisch müssen einige Klimamodelle im CMIP6 bezüglich der Wolken falsch liegen, weil eine insgesamt steigernde und senkende Wirkung gleichzeitig nicht stimmen kann. Im CMIP6‐​Verbund kommt für den Temperatureinfluss von Wolken ein Mittelwert nahe Null heraus.28 Bewölkungsveränderungen fallen damit als mögliche Ursachen von Klimaveränderungen flach. Um so mehr bleibt beim Attributieren für Menschen zum Verursachen übrig.

Für Forschungszwecke ist die Möglichkeit der Klimamodelle, verschiedene Klimafaktoren wie Wolkenbildungen, Reflexionsvermögen (Albedo), Aerosole usw. als Stellschrauben verwenden zu können, um zu sehen, was passiert, enorm nützlich.

Gerade durch ihre Stellschrauben‐​Funktionalität unterscheiden sich Klimamodelle wesentlich von herkömmlichen physikalischen Modellen. Ein herkömmliches physikalisches Modell ist, um ein ganz einfaches Beispiel zu nennen, das des idealen Gases, das in Folge 9 vorgestellt wurde. Kommen bei den Gasgleichungen, die dem Modell des idealen Gases entsprechen, Ergebnisse heraus, die den Beobachtungsdaten widersprechen, muss man sagen: »Das Modell ist (unter diesen oder jenen Umständen) falsch«.

Kommen bei Klimamodellen Ergebnisse heraus, die den Beobachtungsdaten widersprechen, kann man sagen: »Eine oder mehrere Stellschrauben sind falsch eingestellt« oder »Wir müssen eine weitere Stellschraube einbauen«. Das Klimamodell und die ihm zugrunde liegenden physikalischen Auffassungen brauchen nicht grundsätzlich in Frage gestellt zu werden. Aufgrund dieser Nichtfalsifizierbarkeit haben Klimamodelle keinen wissenschaftlichen Charakter wie ihn herkömmliche physikalische Modelle haben. In traditionell naturwissenschaftlicher Sichtweise sind sie Werkzeuge, um Zusammenhängen auf die Spur zu kommen, nicht Werkzeuge, um Nachweise für Zusammenhänge zu liefern.

Um kontrafaktische und nichtkontrafaktische Simulationen zu erzeugen, die als »plausibel« erscheinen, werden die Stellschrauben entsprechend justiert. Das Plausibilitätskriterium ist außer ein wissenschaftliches auch ein sozialökonomisches Kriterium. Je nachdem, wie angesehen ihr Modell in der Wissenschaftswelt ist, können Klimamodellmachende sich größere oder kleinere Abweichungen vom Rest der Modellwelt erlauben, ohne dadurch Ansehen oder Knete einzubüßen.

Alles in allem wundert es wohl wenig, wenn Wissenschaftlerinnen, wie in der vorletzten Folge gezeigt, versuchen, unabhängig von Klimamodellen mit wirtschaftsstatistischen und/​oder informationstheoretischen Methoden Hinweise für Kausalbeziehungen zwischen menschengemachten CO2-Emissionen und globaler mittlerer Oberflächentemperatur zu finden.

Auch wundert es wohl wenig, wenn 2020 eine umfangreiche Übersicht zur wissenschaftlichen Literatur über Verfahren zur Auswahl und Zusammenstellung von Klimamodellen (GCMs – global climate models) für wirtschaftsplanerische Zwecke zu folgendem Ergebnis kam:

»Insgesamt stellen die Forscher:innen die Zuverlässigkeit und Simulationsfähigkeit der GCMs aufgrund der Unsicherheiten auf jeder Ebene der Modellierung in Frage«.29

Sogar auf einer Webseite der NASA ist eine Studie veröffentlicht, in der es heißt:

»Bei der Berechnung der Sonneneinstrahlung nehmen die Klimamodelle viele Vereinfachungen vor, zum Teil, um die Rechenkosten zu senken und die Klimamodellierung zu ermöglichen, zum Teil aber auch aus Unkenntnis der entscheidenden atmosphärischen Informationen. Unabhängig davon, ob es sich um bekannte oder unbekannte Fehler handelt, besteht die Sorge der Community darin, wie sich diese auf das modellierte Klima auswirken könnten.«30

Sollten diese Dinge den Verantwortlichen für die Sechserbroschüre unbekannt gewesen sein, so dass sie Laien gegenüber ohne Täuschungsabsicht behaupten konnten, »dass moderne Klimamodelle reale Klimaentwicklungen zutreffend abbilden können« und »eine verlässliche Grundlage für politische Entscheidungen« bilden?

Natürlich bedingt kann das nicht sein

Außer der Empfehlung, Klimamodellen zu vertrauen, findet sich in der Sechserbroschüre folgender potenzielle Hinweis auf mögliche Kausalzusammenhänge zwischen menschengemachten Treibhausgas‐​Emissionen und globalem Temperaturanstieg:

»Die vielfältigen Forschungen haben natürliche Ursachen für den aktuellen, sehr schnellen und steilen Temperaturanstieg seit Beginn der Industrialisierung ausgeschlossen. Er ist nur durch die menschengemachte Verstärkung des Treibhauseffekts erklärbar.« (Seite 6)

Laut einer Studie von 2015 kann nicht wissenschaftlich seriös behauptet werden, dass der aktuelle Temperaturanstieg besonders »schnell und steil« ist – weshalb vielleicht diese Behauptung in der Akademieantwort nicht vorkommt. Die Wissenschaftlerinnen, die die Studie machten, begründeten das mit grundsätzlichen Beschränkungen in der Erforschung von Klimaverhältnissen, die vor dem Einsatz von Messinstrumenten bestanden:

»[D]as Bild von langsamen Umweltveränderungen in der Erdgeschichte im Gegensatz zum heutigen, rasanten Klimawandel [ist] falsch. […] Für ihre Studie haben die Forscher rund zweihundert Analysen von Klimaveränderungen aus verschiedensten Abschnitten der Erdgeschichte zusammengetragen. Dabei wurde deutlich, dass die scheinbare Geschwindigkeit des Klimawandels umso geringer ausfällt, je länger die Zeiträume sind, über die man Erwärmungs‐ oder Abkühlungsphasen betrachtet. Der Grund dafür: Rapide Klimaänderungen gehen nicht über längere Zeiträume monoton in eine Richtung. Es gibt immer wieder Phasen, in denen die Temperaturen stagnieren oder sogar sinken – das ist auch in der aktuellen globalen Erwärmung zu beobachten. ›Solche schnellen Schwankungen können wir mit den verfügbaren Untersuchungsmethoden bei vergangenen Klimaänderungen jedoch nicht nachweisen. Als Folge davon gaukeln uns die Daten vor, dass der Klimawandel selbst bei den großen Katastrophen der Erdgeschichte immer viel langsamer als heute war. […]‹«.31

Im sechsten IPCC‐​Sachstandsbericht heißt es andererseits:

»Die globale Oberflächentemperatur stieg seit 1970 schneller an als in jedem anderen 50‐​Jahres‐​Zeitraum zumindest der letzten 2000 Jahre (hohes Vertrauen).«32

Geschieht etwas erstmalig in einer Zeit, in der Menschen darauf Einfluss haben könnten, belegt das nicht, dass Menschen darauf Einfluss hatten. Doch wird es wahrscheinlicher, dass Menschen darauf Einfluss hatten. Dies schon deshalb, weil die Wahrscheinlichkeit, dass Menschen auf etwas Einfluss gehabt haben könnten, das zu einer Zeit geschah, in der Menschen keinen Einfluss darauf gehabt haben konnten, beispielsweise die erstmalig aufgetretene allererste Eiszeit, Null beträgt.

Das »Klimasystem« wäre kaum ein »gekoppeltes, nichtlineares, chaotisches System«, wenn sämtliche seiner Veränderungen schon mal stattgefunden hätten. Unabhängig von menschlichen Einflüssen bestehen heute Grundbedingungen, die es seit der Entstehung der Erde in dieser Kombination noch nie gegeben hat: Kontinentalpositionen, Klimazonenverteilung, Meeresströmungsverhältnisse, Achsneigung der Erde, Vulkanaktivitäten, Sonnenzustand, Planetenstellungen, kosmische Strahlungsverhältnisse … Weshalb wird erwartet, dass ohne Zutun von Menschen klimatisch nichts noch nie Dagewesenes passiert?

Als Begründungen dafür, klimatische Veränderungen seien von Menschen verursacht, sind Aussagen über deren erdgeschichtliche Beispiellosigkeit Varianten der Aussage: Andere Ursachen können wir uns nicht vorstellen. Solche Begründungen sind um nichts wissenschaftlicher als diejenigen des europäischen Mittelalters, als – mangels menschlicher Einflussmöglichkeiten oder Machtphantasien – alles Beängstigende, das man nicht erklären konnte, als »Teufelswerk« galt.

Die Behauptung der Sechserbroschüre, der aktuelle Temperaturanstieg sei »nur durch die menschengemachte Verstärkung des Treibhauseffekts erklärbar«, ist eine stärkere Variante der Akademieantwort, Segment [6]:

»Sowohl dieses grundlegende Verständnis der Physik der Treibhausgase als auch auf Mustern basierende Fingerabdruckstudien zeigen, dass natürliche Ursachen allein nicht ausreichen, um die in letzter Zeit beobachteten Klimaveränderungen zu erklären.«

Die stärkere Variante enthält die Behauptung, man wisse über mögliche natürliche Ursachen (und auch nicht‐​treibhausgas‐​bezogene menschengemachte Ursachen) alles zu deren Ausschluss Nötige.

Um die stärkere Variante wissenschaftlich seriös zu machen, könnte man vielleicht ergänzen:

Die vielfältigen Forschungen haben natürliche Ursachen für den aktuellen, sehr schnellen und steilen Temperaturanstieg seit Beginn der Industrialisierung, soweit sie bekannt sind bzw. erforscht wurden, ausgeschlossen. Er ist nur durch die menschengemachte Verstärkung des Treibhauseffekts erklärbar.

In dieser Fassung würde bloß gesagt, was die Akademieantwort und Mehmet über seine Biogummibärchen‐​Bauchschmerzen‐​Theorie auch sagen: Anders können wir uns das nicht erklären.

Die Sonne: Beispiel einer ausgeschlossenen natürlichen Ursache

Zu den ausgeschlossenen natürlichen Ursachen zählt die Sechserbroschüre unter anderem die Sonne:

»Die Sonne zum Beispiel kann nicht die Ursache der aktuellen globalen Erwärmung sein, denn seit etwa 50 Jahren nimmt ihre Leuchtkraft leicht ab« (Seite 6)

Nach einer Studie von 2023 gehen etwa 80 % des Sonneneinflusses auf das Klima nicht auf ihre »Leuchtkraft«, auf die Gesamtsonneneinstrahlung (TSI – total solar irradiance), zurück. Außer der TSI wären zum Beispiel Veränderungen im Magnetfeld der Sonne und in den Frequenzen der Photonen, die sie aussendet (spektrale Bestrahlungsstärke) zu berücksichtigen. Hierbei spielen unter anderem die fetten Planeten Jupiter und Saturn eine Rolle, deren Umläufe die Sonne und deren Position verdellen.

In den Untiefen des fünften IPCC‐​Sachstandsberichts heißt es zur spektralen Bestrahlungsstärke der Sonnenstrahlung:

»Die Schwankungen der solaren spektralen Bestrahlungsstärke (SSI) im hohen (120 bis 200 nm) und mittleren (200 bis 300 nm) Ultraviolett‐​Bereich (UV) sind der Hauptgrund für die Erwärmung, Zusammensetzung und dynamischen Veränderungen der Stratosphäre. […] Da die UV‐​Erhitzung der Stratosphäre über einen SC [Sonnenzyklus – periodische Änderung der Sonnenaktivität alle 11 Jahre] das Potenzial hat, die Troposphäre indirekt durch dynamische Kopplung und damit das Klima zu beeinflussen […], kann UV‐​Strahlung einen bedeutenderen Einfluss auf das Klima haben, als Veränderungen in der TSI allein vermuten lassen.« (Seite 690)

In einer Arbeit von 2018, die der sechste IPCC‐​Sachstandsbericht zitiert, heißt es sogar schon über die TSI:

»Es gibt keinen Konsens über das Ausmaß des historischen Sonneneinflusses. Die geschätzte Größe des Unterschieds in der Gesamtsonneneinstrahlung (TSI) zwischen dem Maunder‐​Minimum [Phase in der Kleinen Eiszeit mit wenigen Sonnenflecken] und der Gegenwart liegt zwischen 0,1 und 6 W/​m2, was die Simulation des vergangenen und zukünftigen Klimas unsicher macht.«33

Dem menschlichen Einfluss seit der Industrialisierung werden rund 2 W/​m2 zugeschrieben (siehe letzte Folge). Wie lässt sich bei Unklarheiten von bis zu 6 W/​m2 behaupten, der Temperaturanstieg sei »nur durch die menschengemachte Verstärkung des Treibhauseffekts erklärbar«?

Der sechste IPCC‐​Sachstandsbericht begründet den Ausschluss natürlicher Ursachenmöglichkeiten, die mit TSI‐​Veränderungen zusammenhängen, damit, dass Nachweise fehlen (Seite 957). Der Ausschluss erfolgte in diesem Fall anders herum als die Sechserbroschüre glauben machen könnte: Ausgeschlossen wurde nicht aufgrund von »Forschungen«, sondern aufgrund fehlender Forschungen. Durch diese Praxis wird der Ausschluss natürlicher (oder auch nicht‐​treibhausgas‐​bezogener menschengemachter) Ursachen der Temperaturerhöhung zur Frage der Forschungsfinanzierung und dominanter Erkenntnisinteressen.

Der Auftrag des IPCC wurde von Anfang an auf die Auswertung nur der menschlichen Einflüsse auf das Klima beschränkt,34 so dass seine Betrachtung menschlicher und nicht‐​menschlicher Einflüsse von vornherein eine Schlagseite hatte.

Horror‐​Hockeyschläger

Einen mindestens emotional wirksamen Grund für die Unnatürlichkeit und damit menschliche Verursachung der globalen Temperaturerhöhung liefert die Sechserbroschüre mit einer Hockeyschläger‐​Grafik zur globalen Temperaturentwicklung in den letzten 2000 Jahren. Menschen mit wenig Hintergrundwissen und ausreichend Autoritätsglauben können sich bei ihrem Anblick kaum dagegen wehren, heutige Temperaturen für »unnatürlich« zu halten. Auf den Gedanken, dass vielleicht an der Darstellungs‐ und Datenaufbereitungsweise etwas »unnatürlich« sein könnte, kommen sie »natürlich« nicht.

Globale oberflächennahe Temperatur‐​Anomalien der letzten 2000 Jahre
Vertikale Skala links: Temperaturanomalien in °C (0: Temperaturdurchschnitt der Jahre 1800 bis 1900). Horizontale Skala: Jahre vor 2010. Die 0 rechts entspricht dem Jahr 1950, ganz rechts ist 2010, ganz links das Jahr ‑50 vor unserer Zeitrechnung. Blaue Zackenlinie: Temperatur mit Hilfe von Proxies geschätzt (Planktonrückstände, Pollen u.a.), schwarze Zackenlinie rechts: aus Thermometerdaten berechnet. Bunte glatte Linien: Jahresmittelwerte unterschiedlicher Methoden zur Temperaturberechnung aus Proxies. Die beiden blauen und die orangene Methode zeigen vor 1250 Jahren kleine Temperaturberge und rechts eine Kuhle der Kleinen Eiszeit. Sonst ist alles ziemlich glatt. Grauer Bereich: Ungenauigkeitsschätzungen.35

Als Quelle der Horror‐​Hockeyschläger‐​Grafik – oben wird wegen unklarem Bildrechtskram eine gleichartige aus Wikipedia gezeigt – gibt die Sechserbroschüre an: https://doi.org/10.1038/s41597-020‑0530‑7. Das ist die Studie Kaufman et al. (2020): »Holocene global mean surface temperature, a multi‐​method reconstruction approach« /​»Rekonstruktion der mittleren globalen Oberflächentemperatur im Holozän nach verschiedenen Methoden«.

Das Holozän ist unser heutiges Erdzeitalter. Es begann vor rund 11.700 Jahren, als die Kontinentalplatten ruhiger wurden und die Menschheit sich anschickte, Viehzucht und Ackerbau zu betreiben.36

Mit Verweis auf Kaufman et al. (2020) heißt es in der Sechserbroschüre:

»Ein solches Temperaturniveau [wie heute] gab es laut den verfügbaren paläoklimatischen Daten noch nie während der vergangenen 2.000 Jahre und sehr wahrscheinlich auch nie während der gegenwärtigen Warmzeit (dem Holozän), die vor knapp 12.000 Jahren begann – also noch nie im Laufe der menschlichen Zivilisation.« (Seite 8)

Später heißt es ergänzend:

»Eine derart außergewöhnliche Häufung von Rekordjahren der Temperatur [wie heute] ist nur durch die menschengemachte globale Erwärmung erklärbar; statistische Zufälle oder natürliche Ursachen (interne Schwankungen im Klimasystem oder natürliche Einflüsse von außen) fallen als Erklärung aus.« (Seite 14)

Über den Forschungsstand zu Fragen früherer Klimaverhältnisse sagt die Sechserbroschüre:

»Erkenntnisse über das Klima der Vergangenheit […] werden durch Auswertung natürlicher Klimaarchive wie beispielsweise Sedimentablagerungen am Grund von Ozeanen und Seen gewonnen. Bohrungen auf Grönland und der Antarktis fördern Eis zutage, das Luftbläschen aus der Atmosphäre enthält, die bis zu 800.000 Jahre alt sind. So können bis weit in die Vergangenheit die Konzentrationen von Treibhausgasen in der Atmosphäre und die Temperaturen auf der Erde rekonstruiert werden. Dabei stellt sich unter anderem heraus, dass sich die erdhistorischen Klimaschwankungen nur erklären lassen, wenn man auch den Treibhauseffekt einbezieht.« (Seite 6)

Holozän mit und ohne Wärmeberg

In Kaufman et al. (2020) ist die Horror‐​Hockeyschläger‐​Grafik ein Ausschnitt aus folgendem Temperaturzusammenhang, den die Sechserbroschüre nicht zeigt:

Globale oberflächennahe Temperatur‐Anomalien des Holzäns37
Blau rechts: Thermometerdaten; andere Farben: verschiedene Methoden der Temperaturberechnung aus denselben Proxy‐Schätzwerten.

Eine der in Kaufman et al. (2020) verwendeten Methoden zur Temperaturberechnung aus Proxies, die orangene Linie in der Holozän‐​Grafik oben38 , macht vor rund 6.500 Jahren (Spätsteinzeit/​Kupferzeit) einen Temperaturberg, der etwa so hoch ist wie heutige Thermometerdaten. Der Temperaturberg wird »HTM – Holocene Thermal Maximum« genannt.

Im Zusammenhang mit einem möglichen HTM schenkte das zuständige Wissenschaftsteam im sechsten IPCC‐​Sachstandsbericht der Aussage »Temperaturen, die so hoch sind wie im jüngsten Jahrzehnt (2011 – 2020), überschreiten den wärmsten hundertjährigen Bereich vor etwa 6.500 Jahren« nur »mittleres Vertrauen«.39 In der Sechserbroschüre wird das, dem das zuständige IPCC‐​Wissenschaftsteam nur mittleres Vertrauen zuspricht, als etwas dargestellt, das »sehr wahrscheinlich« ist (siehe Zitat oben).

Auch bei mittlerem Vertrauen ist der Vergleich eines mit Thermometern ermittelten Temperaturanomaliedurchschnitts über ein Jahrzehnt (2011 – 2020) mit einem anhand von Proxies ermittelten Temperaturanomaliedurchschnitt über einen »hundertjährigen Bereich« fragwürdig. Im rekonstruierten Proxy‐​Jahrhundert sind zwischenzeitliche Temperaturerhöhungen und ‑verringerungen herausgewaschen und glattgebügelt.

Für einen wissenschaftlich seriösen Vergleich müssten heutige Thermometerdaten mindestens so doll »ausgewaschen« werden wie es die Daten des Vergleichszeitraums sind. Da die Daten, auf denen die Holozän‐​Grafik basiert, über einen Zeitraum von bis zu 400 Jahren »ausgewaschen« sind,40 müssten bei einem wissenschaftlich seriösen Vergleich die gegenwärtigen Temperaturen entsprechend »ausgewaschen« werden. Soweit bisher gediehen (!), würden die gegenwärtigen Temperaturen dann als Hügelchen erscheinen, die vorangegangene Kleine Eiszeit verstopfend. Bei Vergleichen mit kürzeren Zeiträumen, zum Beispiel den letzten 2000 Jahren, müssen heutige Thermometerdaten weniger »ausgewaschen« werden, weil die Proxy‐​Schätzungen genauer sind (siehe dazu unten).

Eine Studie Bova et al. (2021) befindet das HTM als nichtexistent und sagt, es entstehe durch eine Fehlinterpretation von Proxydaten. Laut dieser Studie weist das gesamte Holozän einen langsamen Temperaturanstieg auf, der dann in einen sehr viel dolleren Anstieg der Gegenwart mündet. Für Klimamodelle wäre das ganz praktisch, denn die kommen mit dem HTM nicht zurecht – sagen Kaufman et al. (2023):

»Was die Modellierung anbelangt, so simulierte keines der 16 globalen Klimamodelle der neuesten Generation, die am jüngsten CMIP6‐​PMIP4, 6‑ka‐​Experiment [6000‐​Jahre‐​Experiment] teilnahmen, eine GMST, die ihre vorindustriellen Kontrollläufe überstieg. In diesen Modellen war die GMST um 6 ka [6000 Jahre] im Durchschnitt 0,3 °C kühler als in der vorindustriellen Periode […], was gegen ein globales HTM spricht. […] Wenn unsere bevorzugte Interpretation [das HTM war wärmer als die Kleine Eiszeit] richtig ist und der jüngsten globalen Erwärmung ein mehr‐​tausendjähriger globaler Abkühlungstrend voranging, weist dies auf die Notwendigkeit hin, unser Verständnis der natürlichen Klimaantriebe und Rückkopplungen sowie deren Darstellung in Klimamodellen zu verbessern«.41

Dass darüber diskutiert wird, ob es ein HTM gegeben hat oder nicht, deutet auf Unsicherheiten bezüglich der »Erkenntnisse über das Klima der Vergangenheit« hin, die schlecht zum Eindruck wissenschaftlicher Sicherheit passen, den die Sechserbroschüre vermittelt.

2022 kam ein Wissenschaftsteam auf eine interessante Idee: Es baute einem Klimamodell zusätzliche Pflanzen im hohen Norden und in der Sahara ein, wie sie nachweislich dort vor 9.000 bis 6.000 Jahren wuchsen, jedoch bisher von Modellmachenden irgendwie vergessen wurden. Das Ergebnis:

»Unsere Simulationen zeigen, dass die Ausdehnung der Vegetation der nördlichen Hemisphäre vor 9000 und 6000 Jahren die Erdoberfläche um ~0,8° bzw. 0,7 °C erwärmt hat, was eine bessere Übereinstimmung mit proxy‐​basierten Rekonstruktionen ergibt. […] In Übereinstimmung mit früheren Studien […] stellen wir fest, dass vegetationsbedingte Veränderungen der Oberflächenalbedo den Anstieg der regionalen Oberflächentemperaturen weitgehend bestimmen. […]

Die [heute festzustellende] Begrünung der afrikanischen Sahara führt zu einem Anstieg des Netto‐​Strahlungsflusses an der Oberfläche um +15 W/​m2 und trägt zur Erwärmung der Oberfläche in allen Breitengraden bei […]. Besonders stark ist die Erwärmung in der Arktis, wo die NH-[Nordhalbkugel-]Vegetation die Erwärmung verstärkt, die ursprünglich in erster Linie durch den Meereisverlust verursacht wurde […].

Unsere Ergebnisse zeigen, dass während des Holozäns die Vegetation eine wichtige Treiberin der Temperaturveränderung ist, und dass andere Mechanismen wie Staub, Eisbedeckung, orbitale Antriebe oder Treibhausgase die Wärme im frühen und mittleren Holozän nicht ohne die Veränderungen in der NH‐​Vegetation erzeugen können.«42

Oh je! Sind nun die Leute in China mit ihren gigantischen Aufforstungen, in Indien mit ihren landwirtschaftlichen Erfolgen und die Menschheit insgesamt mit ihren Waldschutzmaßnahmen am Klimawandel mitschuldig?

Das wisse man nicht, sagt eine Studie von 2023. Aber es sehe danach aus, als wirke Vegetation eher abkühlend:

»Vegetationsveränderungen können die Energiebilanz der Oberfläche verändern und in der Folge das lokale Klima beeinflussen. Diese biophysikalische Auswirkung ist im Falle der Aufforstung gut untersucht worden, aber das Vorzeichen und die Größenordnung bei anhaltender Bodenbegrünung bleiben umstritten. Auf der Grundlage langfristiger radiometrischer Beobachtungen quantifizieren wir die unidirektionalen Auswirkungen der Begrünung durch Vegetation auf die radiometrische Oberflächentemperatur im Zeitraum 2001 – 2018.

Hier zeigen wir eine globale negative Temperaturreaktion mit großer räumlicher und saisonaler Variabilität. Die Schneedecke, die Begrünung durch Vegetation und die kurzwellige Strahlung sind die Hauptfaktoren für die Temperaturreaktion, da sie die relative Dominanz von Strahlungs‐ und Nichtstrahlungsprozessen regulieren. Zusammen mit dem beobachteten Begrünungstrend ergibt sich eine globale Abkühlung von ‑0,018 K/​Jahrzehnt, was 4,6 ± 3,2 % der globalen Erwärmung abbremst.«43

Elefant in der steinzeitlichen grünen Sahara
dargestellt in einer dortigen Höhlenzeichnung.44 Rechts wird eine menschliche Figur vom Elefantenrüssel »umarmt« ‒ in freundlicher oder feindlicher Absicht?

Eine Studie, Büntgen et al. (2020), erklärt, in 2000‐​Jahres‐​Grafiken wie der in der Sechserbroschüre sehen Temperaturanomalien vor der Thermometerzeit hauptsächlich deshalb so geplättet aus, weil (meine Worte) viele Proxies schlampig verrührt sind:

»Multi‐​Proxy‐​Klimarekonstruktionen, die verschiedene Archivtypen [Arten von Proxies] mit unterschiedlichen Aufzeichnungslängen und Signal/​Rausch‐​Verhältnissen integrieren, sind im Allgemeinen nur begrenzt in der Lage, sowohl jährliche Extreme als auch langfristige Trends über die gesamte Aufzeichnungsdauer hinweg konsistent darzustellen. […] Die Einbeziehung von Proxydaten mit geringerer Auflösung und inhärenten Datierungsunsicherheiten oder Verzerrungen kann zu einer praktisch flachen Klimageschichte der ersten Hälfte der gegenwärtigen Ära führen«.45

Verrührte Proxies mit ihren je eigenen Temperaturerfahrungen knocken sich quasi gegenseitig aus, wenn sie zeitlich gegeneinander verschoben sind und zusammengerechnet werden. Auch können Proxies, die über kurze Zeiträume reichen, keine Berge und Täler über längere Zeiträume zeigen. Solche Proxies werden in Klimarekonstruktionen auf gleicher oder ähnlicher Temperaturhöhe aneinandergekettet. Zusätzlich entstehen Verfälschungen dadurch, dass es viele Proxies von der Nordhalbkugel mit ihrem hohen Landanteil gibt, aber nur wenige von der Südhalbkugel mit ihrem hohen Meeresanteil. Um eine Temperatur‐​Rekonstruktion als »global« ausgeben zu können, müssen Proxies der Südhalbkugel rechnerisch sehr viel höher gewichtet werden als solche der Nordhalbkugel, obschon sie unter Umständen mangels Messdaten weniger über die Lufttemperaturen aussagen.

Büntgen et al. (2020) legten Rekonstruktionen mit wenigen verrührten Proxies vor. Hier ist eine für die Sommertemperaturen des Gebietes Eurasien/​Nordatlantik vereinfacht nachgezeichnet:


Sommertemperatur‐​Anomalien Eurasien/​Nordatlantik der letzten 2000 Jahre
Vereinfachte Darstellung nach Büntgen et al. (2020), Grafik 4, Seite 7
Vertikale Skala links: Temperaturanomalien in °C (0: Temperaturdurchschnitt der Jahre 1961 bis 1990).
Horizontale Skala: Jahre 0 bis 2000 nach unserer Zeitrechnung. Pink: Thermometerwerte 1961 bis 1990, über 30 Jahre »ausgewaschen«. Laut der Studie haben die Temperaturschwankungen viel mit Vulkanen zu tun.

Die Grafik zeigt: Seriös »ausgewaschene« heutige Thermometerwerte liegen deutlich höher als seriös gemachte Proxy‐​Schätzungen der vergangenen 2000 Jahre.

Bis hierher hat sich außer sich selbst bestätigenden Fingerabdruckmethoden und wirtschaftsstatistisch‐​informationstheoretischem Wackelpudding nichts angefunden, um menschliches Zutun an den hohen Thermometerwerten zu belegen. Der Grund für die Nichtbelegbarkeit menschlichen Zutuns liegt nicht allein in der Komplexität des Klimas, sondern in der Komplexität des Klimas kombiniert mit einer schwachen anrhropogenen bzw. Treibhausgas‐​Wirkung. Haut man zum Beispiel einem komplexen Mitmenschen ein blaues Auge, sind keine Computermodellsimulationen nötig, um die Ursache des blauen Auges festzustellen. Anders könnte das bei Mikroaggressionen sein.

Die Erwärmung passiert überall

Sollte es kausale Zusammenhänge zwischen menschengemachten CO2-Emissionen und globalen Temperaturänderungen geben, liegt der Gedanke nahe, dass es überall auf der Welt wärmer wird, denn ab einer gewissen Höhe ist das CO2 der Fabriken, Landwirtschaften usw. in der Atmosphäre ziemlich gleichmäßig verteilt.

2015 hatte die Deutsche Meteorologische Gesellschaft (DGM) in einem lustigen Statement auf »sehr unterschiedliche regionale Trends« als störenden Faktor bei der Ursachenzuschreibung von Klimaveränderungen hingewiesen (siehe letzte Folge). Hübsch anzusehende kostenlose Beispiele dafür konnte ich nur in den USA und Indien finden:

Links: Im Zeitraum zwischen 1941 und 1999 wurde es im Nordosten Indiens teilweise kälter (blaue Punkte) und im Rest Indiens wärmer (rote Punkte). Rechts: Im Zeitraum zwischen 1961 und 2015 wurde es im Osten des Inlands der USA kälter und im Westen sowie an Teilen der Ostküste wärmer.46

Vielleicht hatte eine gewisse Thermometerfixierung den alten Wetterfröschen vom DGM den Wandel zum menschengemachten Klimawandel schwer gemacht?

Thermometermesswerte zum Beispiel Mitteleuropas und Afrikas (vielleicht auch anderer Gegenden, die anzusehen ich keine Zeit hatte) sehen in unaufgepeppter Nichtanomalieform nämlich nicht soooo furchteinflößend aus:47



Laut Sechserbroschüre wird es – bis auf eine einzige Ausnahme – überall deutlich wärmer:

»Alle Komponenten des Klimasystems, also Ozean, Land, Atmosphäre, Biosphäre und Eismassen, haben sich in den vergangenen Jahrzehnten deutlich erwärmt – und diese Erwärmung fand praktisch überall auf der Erde statt. (Die einzige Ausnahme, die Abkühlung des subpolaren Atlantiks, wurde von Klimamodellen seit langem korrekt vorhergesagt und geht offenbar auf eine Abschwächung des Golfstromsystems zurück.14 )

Das rasante Tempo und die weltweite Gleichzeitigkeit des Temperaturanstieges unterscheiden den heutigen menschengemachten Klimawandel von vorherigen natürlichen Veränderungen wie den Eiszeit‐​Warmzeit‐​Zyklen oder der sogenannten Mittelalterlichen Warmzeit.« (Seite 8)

Die NASA scheint sich bei den Erwärmungsausnahmefällen, in den Grafiken unten blau eingezeichnet, irgendwie verzählt zu haben:

Temperaturänderungen 2015 – Jahresmittel
relativ zu den Durchschnittstemperaturen der jeweiligen Monate von 1981 bis 2010

Der Pfeil zeigt auf den Erwärmungsausnahmefall des subpolaren Atlantiks, den die Sechserbroschüre nennt.

Temperaturänderungen 2021 – Jahresmittel
relativ zu den Durchschnittstemperaturen der jeweiligen Monate von 1981 bis 2010

Nach Erscheinen der Sechserbroschüre verschwand der Erwärmungsausnahmefall.

Wärmelöcher, AMOC und Kippelemente

Die hochgestellte 14 im vorigen Zitat verweist auf eine Studie Rahmstorf et al. (2015): »Exceptional twentieth‐​century slowdown in Atlantic Ocean overturning circulation« /​»Außergewöhnliche Verlangsamung der Atlantischen Umwälzzirkulation im zwanzigsten Jahrhundert«. Zu den Autoren der Studie gehören zwei klimawissenschaftliche Berühmtheiten: Stefan Rahmstorf vom Potsdam‐​Institut für Klimafolgenforschung (PIK) und Hockeyschläger‐​Konstrukteur Michael E. Mann.

In der Studie Rahmstorf et al. (2015) heißt es über Klimamodelle:

»Klimamodelle aus dem CMIP5‐​Ensemble, die durch natürliche und anthropogene Einflüsse angetrieben werden, zeigen im Allgemeinen eine viel schwächere subpolare Abkühlung als die Beobachtungen und erfassen nicht die beobachtete nordatlantische subpolare Abkühlung zwischen 1970 und 1990«.48

Eine Studie von 2017 gibt folgende Auskunft über CMIP5‐Modelle:

»Im Gegensatz zum langfristigen Erwärmungstrend des SPG [subpolarer Nordatlantik], der von den meisten Modellen festgestellt wird, prognostizieren 17,5 % der Modelle (7/​40) eine rasche Abkühlung des SPG, was mit einem Zusammenbruch der lokalen Tiefsee‐​Konvektion einhergeht.«49

Die Aussage in der Sechserbroschüre: »die Abkühlung des subpolaren Atlantiks … wurde von Klimamodellen seit langem korrekt vorhergesagt« stimmt demnach: Klimamodelle sagen die Abkühlung tatsächlich voraus – nur eben nicht alle, was die Lesenden nicht unbedingt zu wissen brauchen (weil die 82,5 % SPG‐​Versager trotzdem »reale Klimaentwicklungen zutreffend abbilden können«).

Die Atlantische Umwälzzirkulation geschieht durch eine Meeresströmung, die Wärme aus der Äquatorgegend in den Norden transportiert und im Gebiet des subpolaren Atlantik in tiefere Meeresebenen umwälzt. Diese durch unterschiedliche Meerwasser‐​Salzgehalte und Temperaturen angetriebene Umwälzung wird auch »AMOC« genannt, »Atlantic meridional overturning circulation«. Die AMOC, deren einer Zweig der Golfstrom ist, bildet den atlantischen Teil einer gigantischen Meereszirkulation (MOC – meridional overturning circulation), bei der das Wasser im Verlauf einiger hundert Jahre eine Runde dreht.

MOC und AMOC50

Sich ausbreitende Abkühlungen im subpolaren Atlantik wurden spätestens seit Ende der 1960er Jahre gemessen. Weil damals Temperaturen nicht alles waren, wurden sie unter dem Stichwort »Great Salinity Anomalies« (Salzgehalt‐​Anomalien) diskutiert.51 Ab irgendwann wurden die Salzgehalt‐​Anomalien, die kommen und gehen, gößer und kleiner werden, »cold blobs« und »warm blobs« genannt. Im Deutschen werden die »cold blobs« als »Kälteblasen« oder auch »Wärmelöcher« bezeichnet.

Zur Entstehung von Wärmelöchern gibt es verschiedene Theorien.52 Nach einer dieser Theorien entstehen Wärmelöcher durch die Schwächung der AMOC.

Laut einem Forschungsbrief von 2020 wurde die AMOC‐​Repräsentation in CMIP6‐​Modellen im Sinne der Theorie der AMOC‐​Schwächung verbessert – wenn auch »große Modellstreuungen bestehen bleiben«:

»Die mittlere AMOC‐​Schwächung des Ensembles in zukünftigen (SSP) Szenarien ist in CMIP6‐​Modellen stärker als in CMIP5‐​Modellen.«53

Dass die AMOC schwächer wird, findet auch die Studie Rahmstorf et al. (2015), auf die die Sechserbroschüre verweist. Ein Wärmeloch, das 2015 bestand und inzwischen wieder verschwunden ist (Videoanimation dazu), deutete die Studie als Zeichen einer AMOC‐​Schwächung.54

Erklärt wird die AMOC‐​Schwächung nach der in Rahmstorf et al. (2015) vertretenen Theorie grob in folgender Weise: Menschen sorgen mit ihren Treibhausgas‐​Emissionen für eine Erwärmung der Atmosphäre → in Grönland schmelzen die Eismassen und fließen in den Atlantik → das verringert den Salzgehalt in den betroffenen Atlantikgebieten → dadurch wird die AMOC geschwächt, so dass sie nicht mehr so viel Wärme in den Norden bringen kann → in Nordeuropa wird es katastrophal kalt.

Nach herrschender klimawissenschaftlicher Meinung, auch des IPCC, stellt das Umkippen der AMOC ein zentrales »Kippelement« im globalen Klimasystem dar. Immer mal wieder kommen Studien mit entsprechenden Warnungen in die Schlagzeilen. Auch unterhaltsame Katastrophenfilme gibt es dazu. Politisch wird die AMOC‐​Sache zentraler, sobald die offiziell konstruierbaren Globaltemperaturen zu wenig steigen, um mit ihnen Panik machen zu können.

Schade nur, wenn Messdaten keine statistisch signifikante AMOC‐​Schwächung sehen lassen.

Eine Studie von 2020 berichtet von den Ergebnissen eines 2004 zur Meeresbeobachtung eingerichteten Messnetzwerks namens »RAPID«:

»Beobachtungen des subtropischen RAPID‐​Arrays (Rapid Climate Change‐​Meridional Overturning Circulation and Heatflux Array‐​Western Boundary Time Series) deuten auf eine Abschwächung der AMOC zwischen 2004 und 2012 hin (14), aber eine anschließende Erholung bis September 2018 lässt keinen signifikanten Abwärtstrend der AMOC mehr erkennen (15)55

Eine Klimamodell‐​Studie von 2021 trägt den Titel:

»Eine 30‐​jährige Rekonstruktion der meridionalen Umwälzzirkulation im Atlantik zeigt keinen Rückgang«56

2022 meldet eine Studie:

»Wir haben hydrographische Daten von zonalen Abschnitten über den Atlantik für 30 Jahre analysiert, die vor der Ära der AMOC‐​Beobachtungen liegen und sich mit diesen überschneiden. Unsere Ergebnisse zeigen keine Veränderungen der AMOC für alle analysierten Abschnitte über den gesamten Atlantik in den letzten 30 Jahren.«57

Nach den RAPID‐​Befunden und einer anderen, an Messdaten orientierten Studie von 2021 scheint die AMOC‐​Abschwächung Teil eines Zyklus zu sein. Auf die Abschwächung folgt eine AMOC‐Stärkung.

Grundsätzlich steckt der zyklische Gedanke bereits in der Erklärung der AMOC‐​Abschwächung mit schmelzendem Grönland‐​Eis drin: Wird die AMOC geschwächt, so dass sie nicht mehr so viel Wärme in den Norden bringen kann, sollte das dazu beitragen, dass weniger Grönlandeis schmilzt.

Wenn die AMOC stärker wird, wie einige Studien behaupten: Wäre das dann auch ein »anthropogenes Signal« oder wäre es die Unterdrückung eines anthropogenen Signals durch natürliche Faktoren?

Eine Studie von 2024 fasst zusammen:

»[Ü]ber die relative Rolle einzelner Komponenten des arktischen Klimawandels (z.B. Schmelzen des Grönlandeisschilds, durch den Rückgang des Meereises verursachte Anomalien der Süßwasser‐ und Wärmeströme) für die vermutete Verlangsamung der AMOC […] oder die damit verbundenen Veränderungen der Konvektion im tiefen Ozean besteht keine Einigkeit«.58

Bei allen Erklärungen zur Entstehung des Wärmelochs und einer möglichen AMOC‐​Schwächung stellt sich im Zusammenhang mit dieser Folge der kleinen linken Klimaserie die Frage: Was oder wie viel haben menschengemachte Treibhausgas‐​Emissionen damit zu tun? Wie bewirken Menschen mit ihren Treibhausgas‐​Emissionen eine Erwärmung der Atmosphäre, die zum (An-)Schmelzen des Grönlandeises reichen könnte? Wo sind Nachweise dafür? Zu diesen Fragen konnte ich außer bloßen Behauptungen in manchen Studien, nach denen letztlich alles als »ungut« Bewertete von menschengemachten Treibhausgas‐​Emissionen kommt, zwei Studien finden.

Die eine, Chemke et al. (2020), ist eine Attributions‐​/​Fingerabdruck‐​Studie. Sie sagt:

»Hier zeigen wir durch die Analyse modernster Klimamodelle und Observationen, dass das aktuelle Wärmeloch im Nordatlantik anthropogenen Ursprungs ist. Unsere Analyse zeigt, dass das anthropogene Signal erst vor kurzem aus der internen Klimavariabilität hervorgegangen ist und auf Treibhausgasemissionen zurückgeführt werden kann. Darüber hinaus zeigen wir, dass der abnehmende ozeanische Wärmestrom nach Norden in den letzten Jahrzehnten, der mit diesem Oberflächentemperaturmuster verbunden ist, ebenfalls anthropogenen Ursprungs ist.«59

Mit den »Observationen« sind Oberflächen­wassertemperatur­anomalien (SSTs) gemeint. Salzgehalte, Stürme und andere Dinge, mit denen das Wärmeloch bzw. eine mögliche AMOC‐​Abschwächung kausal erklärt werden könnten, kommen nicht vor.

Die andere Studie, Qasmi (2023), arbeitet ebenfalls nur mit SSTs. Sie bekommt mit Hilfe von 12 Klimamodellen eine »anthropogene Abkühlung« im Nordatlantik seit 1951 heraus und erklärt:

»Ungeachtet der verschiedenen Mechanismen, die zur Erklärung des WL [Wärmelochs] vorgeschlagen wurden, haben nur wenige Studien versucht, den anthropogenen Beitrag zu den Veränderungen der SST über den historischen Zeitraum in dieser Region streng statistisch zu quantifizieren. Eine kürzlich durchgeführte Studie zur Detektion und Attribution von anthropogenen Einflüssen, die auf einer statistischen Methode basiert, die aus dem optimalen Fingerprinting abgeleitet wurde, liefert eine quantitative Aussage über ein anthropogenes Signal in den SST‐​Zeitreihen über dem WL (Chemke et al., 2020), ohne jedoch den Einfluss der einzelnen externen Einflüsse zu quantifizieren.

In dieser Arbeit schätze ich (i) den Beitrag der wichtigsten externen Einflüsse zur Entwicklung des beobachteten WL über den historischen Zeitraum und (ii) die Unsicherheit über die Entwicklung der SST‐​Reaktion auf externe Einflüsse (im Folgenden erzwungene Reaktion) sowohl über den historischen als auch den zukünftigen Zeitraum. Diese Schätzungen stammen aus der Kriging for Climate Change (KCC) Methode, einer innovativen und bewährten statistischen Methode, die Beobachtungen und Klimamodelle interpoliert (daher der Name Kriging). Diese unterschiedlichen Schätzungen beruhen nicht auf mechanistischen Annahmen oder physikalischen Prozessen, sondern ausschließlich auf der über dem WL gemittelten SST. […] Dies geschieht unter der Annahme, dass ›Modelle statistisch nicht von der Wahrheit zu unterscheiden sind‹ […]«60

Zusammenfassung

Die Sechserbroschüre beinhaltet einen potenziellen Hinweis auf konkrete physikalische Zusammenhänge zwischen menschengemachten CO2-Emissionen und globaler Oberflächentemperatur: den Treibhauseffekt. Im weiteren Verlauf der Broschüre stellt sich jedoch heraus, dass physikalische Zusammenhänge, wie sie üblicherweise beim Treibhauseffekt beschrieben werden, eine geringe bis keine Bedeutung zur Erklärung der Erhöhung der globalen Oberflächentemperatur seit Beginn der Industrialisierung haben.

Eine große Bedeutung für die »globale Erwärmung«, d.h. nicht unbedingt der Atmosphäre, haben laut Sechserbroschüre die Ozeane und polare Eismassen. Hinweise auf kausale Beziehungen zwischen menschengemachten atmosphärischen CO2-Emissionen und einer Erwärmung der Ozeane und Eismassen konnte ich in der Broschüre nicht finden.

Wie in der Akademieantwort fußt in der Sechserbroschüre die Behauptung, menschengemachte atmosphärische CO2-Emissionen würden die globale Oberflächentemperatur merklich erhöhen oder auch anderweitig das Klimasystem aufheizen, nicht auf physikalisch erklärten und nachprüfbaren Kausalbeziehungen, sondern auf Simulationen von Klimamodellen. Ansonsten wird letztlich nur gesagt: Anders können wir uns das nicht erklären.

Im Unterschied zur Akademieantwort wird in der Sechserbroschüre dieses Nichterklärenkönnen als eines dargestellt, das auf gesicherten Erkenntnissen beruht. Insbesondere bezüglich der Klimamodelle und der Rekonstruktionen vergangener Klimaverhältnisse stellt die Broschüre den gegenwärtige Kenntnisstand als gesichert dar, obwohl er es nicht ist. In Folge dessen glauben Klimalaien mit passender Psyche, Zweifel am menschengemachten Klimawandel müssten auf einer Unwissenheit oder Bosheit der Zweifelnden beruhen.

Über die Dürftigkeit ihrer Begründung einer Erhöhung der globalen Oberflächentemperatur oder auch Erwärmung anderer Welt‐​Komponenten durch menschengemachte CO2-Emissionen täuscht die Sechserbroschüre mit wissenschaftlich umstrittenen Grafiken und Angstmacherei hinweg. Ein sprachlicher Effekt hilft ihr dabei:

Durch die Beschreibung unterschiedlicher Kausalkonzepte mit denselben alltagssprachlichen und in herkömmlichen Naturwissenschaften üblichen Aktivitätswörtern und Ausdrücken wie »verursachen«, »bewirken« usw. entsteht bei Laien wie auch bei Nichtlaien ein irreführender Eindruck darüber, was das IPCC und angeschlossene Klimawissenschaftlerinnen anhand der Klimamodelle überhaupt behaupten und belegen können. Über diese Problematik verbreitete sich in den letzten Jahren ein geistiger Nebel der Gleichsetzung statistischer Wahrscheinlichkeits­verteilungen in der Modell‐ und Realwelt, der die beiden Welten ununterscheidbar macht.

S4F‐Fakten

Die dritte seriöse Quelle, die ich mir auf der Suche nach Hinweisen auf Kausalbeziehungen zwischen atmosphärischem CO2-Gehalt und globaler bodennaher Mitteltemperaturanomalie anschaute, die »Fakten aus der Wissenschaft« von Scientists for Future (S4F), hämmert den Lesenden extremer noch als die Sechserbroschüre assoziative Verbindungen zwischen menschengemachten Treibhausgas‐​Emissionen und allen möglichen Klimaschlechtigkeiten ein. Hinweise auf Kausalbeziehungen, die über diejenigen der Sechserbroschüre hinaus gehen, konnte ich im Text nicht finden, doch vielleicht stecken welche hinter den zahlreichen Links im Text?

Worin die S4F‐​Fakten die Fakten der Sechserbroschüre eindeutig übertrumpfen, sind Mikroaggressionen – nicht nur gegen »Klimawandel‐​Leugner«, sondern auch zum Beispiel gegen etablierte Klimamodellierende, über die weiter oben Paul Voosen berichtete, oder auch etablierte Wasserwirtschaftsexperten wie Komaragiri Srinivasa Raju, aus dessen Studie oben zitiert wurde. Die haben nämlich alle Mathe und Physik nicht verstanden:

»Klima‐​Modellrechnungen geben uns verlässliche Aussagen über künftige Entwicklungen […] Wer moderne Klimamodellrechnungen für unzuverlässig hält, erklärt die nichtlineare Dynamik und damit ein komplettes Teilgebiet der Mathematik und Physik für ungültig. Kurzum: Klimamodelle sind tief in der Physik verankert und haben Naturgesetze zur Grundlage.«

In der nächsten Folge wird’s um den Treibhauseffekt und drei Zauberzahlen gehen: ‑18, 255 und 33.

Fußnoten

1 Wie Folge 4 ergab, ist die globale mittlere Oberflächentemperatur eigentlich keine Temperatur, sondern das Resultat arithmetischer Mittelwertberechnungen über thermodynamische Nichtgleichgewichtsfelder mit undefinierten Beziehungen zur messbaren Welt. In dieser Folge tue ich der Einfachheit halber meistens so, als sei sie eine Temperatur.

2 Man könnte zum Beispiel die Angaben der Broschüre zum Nord‐ und Südpoleis mit denen der NASA vergleichen …

4 Beispiel zum Vorgang des Verschwindenlassens des chaotischen Elements: B M Sanderson, R Knutti: On the interpretation of constrained climate model ensembles. Geophysical Research Letters Vol. 39/​16, August 2012

5 Mehr zu ARGO gibt’s in Folge7.

6 Original zur Kontrolle: »Detection of change is defined as the process of demonstrating that climate or a system affected by climate has changed in some defined statistical sense without providing a reason for that change. An identified change is detected in observations if its likelihood of occurrence by chance due to internal variability alone is determined to be small«.

7 Die Idee, so vorzugehen, stammt ursprünglich aus der Epidemiologie, wobei sie dort (bisher oder bis vor Covid‐​19?) nicht‐​zirkulär angewandt wird. Siehe z.B. den netten, wenn auch etwas Covid‐​19‐​infizierten, Vortrag von Peter WG Tennant: Introduction To Causal Inference And Directed Acyclic Graphs (2022, Universität Bristol). Mit »kontrafaktisch« ist bei diesen Verfahren eine realweltlich messbare Alternative gemeint. Soll z.B. die Lebenserwartung bei Tabakkonsum untersucht werden, könnte »kontrafaktisch« die Lebenserwartung bei Nichttabakkonsum und Psychopharmaka‐ und/​oder anderweitigen Drogenkonsum und/​oder chronischem Sichzusammenreißen sein. (Nur nichtwissenschaftliche, normative, Medizin vergleicht die Lebenserwartung von Tabaksüchtigen mit der von Menschen, die überhaupt keinen chronischen Bedarf daran haben, sich was reinzuknallen.)

8 A new statistical approach to climate change detection and attribution. Climate Dynamics 48 (2017), DOI 10.1007/s00382-016‑3079‑6. Eine grundsätzliche Diskussion der Vorstellung, der Durchschnitt vieler Modelle zusammengenommen komme der Realität nahe und die statistische Ununterscheidbarkeit von Simulations‐ und Messdaten sei ein brauchbares Kriterium zur Abschätzung von Unsicherheiten bei B M Sanderson, R Knutti: On the interpretation of constrained climate model ensembles. AGU Geophysical Reserach Letters, August 2012, DOI 10.1029/2012GL052665. 2019 meldete eine Studie folgende Neuigkeit: »Aufgrund der unterschiedlichen Leistungen der Modelle im Vergleich zu den Beobachtungen und der mangelnden Unabhängigkeit der Modelle untereinander gibt es jetzt [Original: »now«] Hinweise darauf, dass es suboptimal ist, alle verfügbaren Modellprojektionen gleich zu gewichten.« (V Eyring, P M Cox et al.: Taking climate model evaluation to the next level. Nature Clim Change 9, 102 – 110 (2019). DOI 10.1038/s41558-018‑0355‑y)

9 In diesem Vortrag wird – wie auch im fünften und sechsten IPCC‐​Sachstandsbericht – auf eine Arbeit von Allen und Tett 1999 verwiesen, von der inzwischen nachgewiesen ist, dass sie fehlerhaft ist, was unzählige Attributionsstudien über die hier erwähnten prinzipiellen Bedenken hinaus in Zweifel zieht. R McKitrick: Checking for model consistency in optimal fingerprinting: a comment. Climate Dynamics 58(5), January 2022, DOI:10.1007/s00382-021 – 05913‑7 | H Chen, S X Chen, M Mu: A Review on the Optimal Fingerprinting Approach in Climate Change Studies. May 2022, DOI:10.48550/arXiv.2205.10508 (Preprint) | R McKitrick: Total least squares bias in climate fingerprinting regressions with heterogeneous noise variances and correlated explanatory variables. Environmetrics 35(2), March 2024, DOI 10.1002/env.2835

10 Original: »The balance of evidence suggests a discernible human influence on global climate«. Die französische Übersetzung lautet: »Un faisceau d’éléments suggère qu’il y a une influence perceptible de l’homme sur le climat global.« /​»Ein Bündel von Elementen deutet darauf hin, dass es es einen wahrnehmbaren Einfluss des Menschen auf das globale Klima gibt«. (Seite 22)

11 Original: »Human influence has been detected in warming of the atmosphere and the ocean, in changes in the global water cycle, in reductions in snow and ice, and in global mean sea level rise; and it is extremely likely to have been the dominant cause of the observed warming since the mid 20th century.« (Seite 47)

12 Frederick Seitz: A major deception on ›global warming‹. Wall Street Journal. New York; 12.6.1996. Santer war als IPCC‐​Leitautor in die Sache involviert und spielte auch bei »Climategate 1.0« eine Rolle, wobei er von einem Ausschuss des US‐​Kongresses zur Rechenschaft gebeten wurde. Mehr zum IPCC siehe Folge 2 und Folge 5.

14 T Laepple, E Ziegler et al.: Regional but not global temperature variability underestimated by climate models at supradecadal timescales. Nature Geoscience, Vol. 16/​11 (2023)

15 I R Simpson, K A McKinnon et al.: Observed humidity trends in dry regions contradict climate models. PNAS 2024 Vol. 121 No. 1, DOI 10.1073/pnas.2302480120. Feuchtigkeit in der Luft und Lufttemperatur hängen eng zusammen. Dieselbe Energiemenge bewirkt bei feuchterer Luft einen geringeren Temperaturanstieg als bei trockenerer ( Folge 9).

16 Grafik von Wikimedia Commons | Fährtenleser, Legende nachträglich eingebaut

17 T A Shaw, P A Arias et al.: Regional climate change: consensus, discrepancies, and ways forward. Front. Clim. Sec. Climate Monitoring, 03 May 2024, Vol. 6 – 2024, DOI 10.3389/fclim.2024.1391634

18 Der sechste IPCC‐​Sachstandsbericht verweist auf Seite 566 diesbezüglich auf ein Kapitel im fünften IPCC‐​Sachstandsbericht, in dem nichts Konkretes steht (Cubasch et al., 2013), und auf die weiter unten genannte Studie von Hausfather et al., 2020, die eine Auswahl von 15 Klimamodellen untersucht.

19 Bei einer »einigermaßen«-Stabilisierung wird auch von »effective climate sensibility« (ebenfalls »ECS«) gesprochen. Um die eigentliche ECS herauszubekommen, müssen die Modelle Zeiträume von über 1000 Jahren berechnen. S C Sherwood, M J Webb et al.: An Assessment of Earth’s Climate Sensitivity Using Multiple Lines of Evidence. AGU 58/​4, Dezember 2020, DOI 10.1029/2019RG000678

20 IPCC‐​Sachstandsbericht 2021/​2023, AR 6 /​WG 1, S. 56. Die offiziellen Bandbreiten der ECS‐ und TCR‐​Werte scheinen angesichts der Streuung der orangenen Linien irgendwie geschönt zu sein.

21 Die mittlere Troposphäre als Vergleichsbereich bietet sich an, weil einerseits Satellitenmessungen dort als genauer gelten und andererseits Modelle auf bodennahe Temperaturen »getunt« sind, so dass Ähnlichkeit in Bodennähe entsprechend weniger aussagt. Schmidts Vergleich diente der Abwehr einer seiner Meinung nach übertriebenen Darstellung des Klimawissenschaftlers John Christy vor einem Ausschuss des US‐​Kongresses, die als »Spaghettie‐​Graph« bekannt geworden war. Stephen McIntyre stellt eine ausführliche Analyse dazu bereit. Der fünfte IPCC‐​Sachstandbericht zeigte eine ähnliche Spaghettie‐​Grafik, bei der laut McIntyre die Abweichungen durch einen Trick verkleinert wurden.

22 F Hourdin, T Mauritsen et al.: The Art and Science of Climate Model Tuning. Bulletin of the American Meteorological Society 98/​3, März 2017, DOI 10.1175/BAMS-D-15 – 00135.1

25 Siehe dazu auch Stellungnahme zur Sachverständigen‐​Anhörung des Ausschusses für Wirtschaft, Energie und Landesplanung am 11. April 2018, Klimaschutz A18, Landtag Nordrhein‐Westfalen,

26 G A Meehl, C A Senior et al.: Context for interpreting equilibrium climate sensitivity and transient climate response from the CMIP6 Earth system models. Science Advances 24 Jun 2020, Vol 6, Issue 26, DOI 10.1126/sciadv.aba1981

27 M D Zelinka, S A Klein et al.: Evaluating Climate Models’ Cloud Feedbacks Against Expert Judgment. AGU, JGR Atmospheres Vol. 127/​2, Januar 2022, DOI 10.1029/2021JD035198

28 S A Sejas, X Hu et al.: Understanding the Differences Between TOA and Surface Energy Budget Attributions of Surface Warming. Front. Earth Sci. Sec. Atmospheric Science Volume 9 – 2021, DOI 10.3389/feart.2021.725816

29 Review of approaches for selection and ensembling of GCMs. Journal of Water and Climate Change (2020) 11 (3): 577 – 599. DOI 10.2166/wcc.2020.128

30 J Hsu, M.J Prather: Assessing Uncertainties and Approximations in Solar Heating of the Climate System. J. Adv. Modeling Earth Syst., 13, e2020MS002131, 2021, DOI 10.1029/2020MS002131

31 FAU‐​Wissenschaftler zeigen, dass Erderwärmung in der Vergangenheit genauso schnell voranschritt wie heute. Studie: DB Kemp, K Eichenseer, W Kiessling: Maximum rates of climate change are systematically underestimated in the geological record. Nature Communications 6, Article number: 8890 (2015), DOI: 10.1038/ncomms9890. – Ausführlicheres dazu mit Beispielen früherer rasanter Änderungen in Folge 4.

33 T Egorova, W Schmutz et al.: Revised historical solar irradiance forcing. Astronomy and Astrophysics, 615: A85, 2018. DOI 10.1051/0004 – 6361/​201731199

34 IPCC: Principles governing IPCC work. Oktober 2013, Seite 1, Punkt 2

35 Quelle: Wikimedia Commons – hier: Beschriftungen entfernt; in der Sechserbroschüre auf Seite 6. Ursprüngliche Quelle: Abb. 3 aus Darrell Kaufman, Nicholas McKay, Cody Routson, Michael Erb, Christoph Dätwyler, Philipp S. Sommer, Oliver Heiri, Basil Davis: Holocene global mean surface temperature, a multi‐​method reconstruction approach. In: Scientific Data. Juni 2020, DOI 10.1038/s41597-020‑0530‑7. Die Grafik basiert auf Daten und Berechnungen, die die Wissenschaftsorganisation PAGES, Spezialeinheit PAGES 2k, bereitstellt. Mehr zu dieser Organisation siehe Folge 3.

36 Unter anderem wegen der Kontinentalplattensache ist bei Klimavergleichen mit Zeitaltern vor dem Holozän Vorsicht angebracht. Solche Vergleiche sagen jedoch trotzdem aus, dass »die Natur« in Richtung nach oben mit einer enormen Bandbreite von Durchschnittstemperaturen und CO2-Konzentrationen klar kommen kann. Nach unten hin ist ab ziemlich klaren Grenzen Schluss mit dem vielzelligen Leben.

37 Quelle: Wikimedia Commons – hier: Beschriftungen und 2000‐​Jahresausschnitt entfernt. Ursprüngliche Quelle: Abb. 3 aus Darrell Kaufman, Nicholas McKay, Cody Routson, Michael Erb, Christoph Dätwyler, Philipp S. Sommer, Oliver Heiri, Basil Davis: Holocene global mean surface temperature, a multi‐​method reconstruction approach. In: Scientific Data. Juni 2020, doi:10.1038/s41597-020‑0530‑7

38 Die orangene Linie entsteht durch eine Methode, die »CPS« heißt. Mehr dazu gibt’s in Folge 2.

40 Entnommen aus Bova et al. (2021), Seite 554. PAGES2K‐​Auflösung bis 100 Jahre nach PAGES2k Consortium (2017).

41 Revisiting the Holocene global temperature conundrum. Nature, 614, 2023, February 15, pp. 425 – 435. DOI 10.1038/s41586-022 – 05536‑w. Siehe auch Z Rao, Y Tian et al.: Pollen Data as a Temperature Indicator in the Late Holocene: A Review of Results on Regional, Continental and Global Scales. Front. Earth Sci., 21 February 2022, DOI 10.3389/feart.2022.845650.

42 A J Thompson, Z Jiang et al.: Northern Hemisphere vegetation change drives a Holocene thermal maximum. Sci Adv. 2022 Apr 15;8(15):eabj6535. DOI 10.1126/sciadv.abj6535

43 L Yitao, Zhao‐​Liang et al.: Biophysical impacts of earth greening can substantially mitigate regional land surface temperature warming. Nat Commun, 2023 Jan 9;14(1):121. DOI 10.1038/s41467-023 – 35799‑4

44 Bildquelle (Ausschnitt, bearbeitet): Wikimedia Commons | Leo Frobenius.

45 Prominent role of volcanism in Common Era climate variability and human history. September 2020, Dendrochronologia 64, DOI 10.1016/j.dendro.2020.125757. Ähnliche Erklärungen in S Marcott, J Shakun et al.: A Reconstruction of Regional and Global Temperature for the Past 11,300 Years. March 2013, Science 339(6124):1198 – 201, DOI 10.1126/science.1228026 und – mit Klimamodellhilfe! – E J C van Dijk, J Jungclaus et al.: High‐​frequency climate forcing causes prolonged cold periods in the Holocene. Commun Earth Environ 5, 242 (2024). DOI 10.1038/s43247-024 – 01380‑0. Siehe auch J Esper, J E Smerdon et al.: The IPCC’s reductive Common Era temperature history. Commun Earth Environ 5, 222 (2024). DOI 10.1038/s43247-024 – 01371‑1

46 Grafiken erstellt anhand von M Arora et al.: Evaluation of temperature trends over India. Hydrological Sciences Journal, 50:1, ‑93, DOI 10.1623/hysj.50.1.81.56330, IAHS Press 2005, S. 88, und T F Partridge et al.: Spatially Distinct Seasonal Patterns and Forcings of the U.S. Warming Hole. AGU Geophysical Research Letters,45, 2055 – 2063. DOI 10.1002/2017GL07646, S. 2058 – mit Landkarten aus Wikipedia ( Indien, USA).

47 Datenquellen: Berlin‐​Tempelhof – Deutschland (Station 155194) | Budapest /​Meteorologia – Ungarn (Station 15007) | Wien /​Hohe Warte – Österreich (Station 152552) | Khartoum – Sudan (Station 23033) | Bamako /​Senou – Mali (Station 156705) | Harare /​Kutsaga Flughafen – Simbabwe (Station 165983) | Niamey Flughafen – Niger (Station 157082). Zum Vergrößern in neuem Browser‐​Tab öffnen. Daten von BerkeleyEarth. Herunterladen der Originaldaten über »DataTable« unter der jeweils ersten Grafik. Leider keine späteren Thermometerwerte als 2013 gefunden. Globen von Wikipedia Commons.

48 S Rahmstorf, S E Box et al.: Exceptional twentieth‐​Century slowdown in Atlantic Ocean overturning circulation. Nature Climate Change 5(5), March 2015, DOI 10.1038/nclimate2554

49 G Sgubin, D Swingedouw et al.: Abrupt cooling over the North Atlantic in modern climate models. Nat Commun. 2017 Feb 15;8:14375. DOI 10.1038/ncomms14375. Erratum in: Nat Commun. 2018 Jun 25;9:16222.

51 I Belkin: «Great Salinity Anomalies« in the North Atlantic. 1998, Progress in Oceanography, Grobid Abstract Attachment Id: 44634305. R R Dickson, J Meincke et al.: The «great salinity anomaly« in the Northern North Atlantic 1968 – 1982. Progress in Oceanography, Volume 20, Issue 2, p. 103 – 151, 1988, DOI 10.1016/0079 – 6611(88)90049 – 3

52 Zum Beispiel Y Fan, J Lu, L Li: Mechanism of the Centennial Subpolar North Atlantic Cooling Trend in the FGOALS‐​g2 Historical Simulation. JGR Oceans 126/​9, September 2021, DOI 10.1029/2021JC017511. Siehe auch Y Fan, D Chan, L Li: Disagreement on the North Atlantic Cold Blob Formation Mechanisms among Climate Models. Journal of Climate, July 2024, DOI 10.1175/JCLI-D-23 – 0654.1

53 CMIP6 Models Predict Significant 21st Century Decline of the Atlantic Meridional Overturning Circulation. AGU Geophysical Research Letters 47/​12, June 2020, DOI 10.1029/2019GL086075. Rahmstorf: Is the Atlantic Overturning Circulation Approaching a Tipping Point? (Oceanography, Januar 2024, Early Online Release) zeigt ein schönes modelliertes Wärmeloch aus dem neuesten IPCC‐Sachstandsbericht.

54 L Caesar, S Rahmstorf: Observed fingerprint of a weakening Atlantic Ocean overturning circulation. Nature volume 556, pages 191 – 196 (2018), DOI 10.1038/s41586-018‑0006‑5. Vorsicht 1: Laut K H Kilbourne, A D Wanamaker et al.: Atlantic circulation change still uncertain, Nat. Geosci. 15, 165 – 167 (2022), DOI 10.1038/s41561-022 – 00896‑4 enstanden die Ergebnisse der Caesar/​Rahmstorf‐​Studie durch eine selektive Proxieauswahl mit ähnlichen Trends. Vorsicht 2: In der deutschen und englischen Wikipedia entsteht der Eindruck, es gebe »den« einen kalten Blob, der nach Rahmstorf/​Mann die AMOC‐​Schwächung anzeige (Stand 25.11.2024). Nach einem allgemeinverständlichen Text scheint das von Anfang an nicht so gemeint gewesen zu sein: Chris Mooney: Surprising cold ›blob‹ found in the North Atlantic Ocean – astute climate scientists worried. Sott​.net 2015

55 Y Fu, F Li et al.: A stable Atlantic Meridional Overturning Circulation in a changing North Atlantic Ocean since the 1990s. Science Advances 27 Nov 2020 Vol 6, Issue 48, DOI 10.1126/sciadv.abc7836

56 A 30‐​year reconstruction of the Atlantic meridional overturning circulation shows no decline. Ocean Sci., 17, 285 – 299, 2021, DOI 10.5194/os-17 – 285‐​2021 – Weitere Studien dazu: N J Fraser, S A Cunningham: 120 Years of AMOC Variability Reconstructed From Observations Using the Bernoulli Inverse. AGU Geophysical Research Letters 48/​18, September 2021, DOI 10.1029/2021GL093893 – D Swingedouw, M‑N Houssai: AMOC Recent and Future Trends: A Crucial Role for Oceanic Resolution and Greenland Melting? Front. Clim., 04 April 2022, DOI 10.3389/fclim.2022.838310 – D L Volcov, RH Smith et al.: Florida Current transport observations reveal four decades of steady state. Nature Communications, September 2024, 15(1):7780, DOI 10.1038/s41467-024 – 51879‑5. In der neuesten AMOC‐​Umkipp‐​Warnungsstudie von 2024 scheinen diese Dinge nicht angekommen zu sein.

57 V Caínzos, A Hernández‐​Guerra et al.: Thirty Years of GOSHIP and WOCE Data: Atlantic Overturning of Mass, Heat, and Freshwater Transport. AGU Geophysical Research Letters February 2022, DOI 10.1029/2021GL096527

58 M M Ezat, K Fahl et al.: Arctic freshwater outflow suppressed Nordic Seas overturning and oceanic heat transport during the Last Interglacial. Nature Communications, October 202415(1), DOI 10.1038/s41467-024 – 53401‑3, Seite 1

59 R Chemke, L Zanna, L M Polvan: Identifying a human signal in the North Atlantic warming hole. Nature Communications (2020) 11:1540, DOI 10.1038/s41467-020 – 15285‑x

60 S Qasmi: Past and future response of the North Atlantic warming hole to anthropogenic forcing. EGU ESD Vol. 14/​3, pp. 685 – 695, 2023, DOI 10.5194/esd-14 – 685‐2023

Bild: Kitaev A.I. „Lektion“, 1955 (https://t.me/SocialRealm)