In Teil 1 haben wir die grundlegenden Prinzipien hinterfragt, die der »Klimawissenschaft™« zugrunde liegen sollen. Insbesondere haben wir uns mit der wissenschaftlichen Gültigkeit des behaupteten »Konsenses« befasst und einige der zahlreichen wissenschaftlichen Zweifel an der Theorie der anthropogenen globalen Erwärmung (AGW – Anthropogenic Global Warming) und dem so genannten »Treibhauseffekt« untersucht.
Wir stellten fest, dass einige Klimawissenschaftler widersprüchliche Erklärungen zur AGW‐Theorie für Laien abgeben. Dieser offensichtliche Mangel an Grundwissen sollte nicht einfach abgetan werden. »Die« Klimawissenschaft wird von einer globalen öffentlich‐privaten Partnerschaft als Rechtfertigung für die Umgestaltung der Welt missbraucht. Das Mindeste, was wir erwarten können, ist, dass die betreffenden Klimawissenschaftler ihre eigene Theorie verstehen.
Mit der Veröffentlichung einer Reihe von Leitfäden im Jahr 2023, betitelt »Unsere gemeinsame Agenda«, haben die Vereinten Nationen (UNO) verkündet, das Infragestellen der »Klimawissenschaft™« komme einer Hassrede gleich. Wie wir in Teil 1 darlegten, haben die etablierten Medien bereits eine redaktionelle Politik angenommen, die jede mögliche Infragestellung der Klimawissenschaftsorthodoxie ausschließt. So verbleibt das Internet als ein wichtiger öffentlicher Raum, in dem die Menschen noch Fragen stellen können.
Nach Ansicht der UNO müssen daher Anstrengungen unternommen werden, um jede im Internet geäußerte Skepsis zu zensieren:
»Die Auswirkungen von Fehlinformationen, Desinformation und Hassreden im Internet sind überall auf der Welt zu beobachten, auch in den Bereichen Gesundheit [und] Klimaschutz. […] Eine kleine, aber lautstarke Minderheit von Klimawissenschaftsleugnern lehnt die Konsensposition weiterhin ab. […] Die Stärkung der Informationsintegrität auf digitalen Plattformen ist eine dringende Priorität für die internationale Gemeinschaft. […] [M]aßnahmen, die die Auswirkungen von Fehlinformationen, Desinformation und Hassreden begrenzen, werden die Bemühungen um eine nachhaltige Zukunft unterstützen.«
Die UNO erwähnte mit keinem Wort, dass viele der Personen, die sie als »Klimawissenschaftsleugner« bezeichnet, Wissenschaftler sind, auch Klimawissenschaftler. Durch Unterlassung und durch die falsche Darstellung anti‐wissenschaftlicher Behauptungen über den »Konsens« als wissenschaftliche Argumente verbreitet die UNO weltweit Desinformationen.
Der Zweck dieser Artikel – Teil 1 bis 3 – ist es, eine offene und ehrliche Debatte über den Klimawandel und die Klimawissenschaft anzuregen. Sie sind nicht als abschließende Widerlegung der vorherrschenden Klimawissenschaft gemeint. Auf der Grundlage der inspirierenden Dissertation von Rob Jeffrey liefern sie lediglich eine begrenzte Auflistung einiger Gründe, die vorherrschende Klimawissenschaft und die Erzählungen über den Klimawandel, die wir alle von der UNO und anderen unhinterfragt akzeptieren sollen, in Frage zu stellen.
Die Artikel bilden eine Serie. Bitte lesen Sie zuerst Teil 1, um die hier vorgebrachten Argumente vollständig zu verstehen.
Infragestellung des experimentellen Nachweises der AGW‐Theorie
Halpern et al. (2010) stellten in ihrem Papier zur AGW‐Theorie klar, dass die Bezeichnung »Treibhauseffekt« irreführend ist, da der vorgeschlagene mit der AGW zusammenhängende Mechanismus nichts mit dem Prozess zu tun hat, der die Atmosphäre in einem Treibhaus warm hält:
»Kurz gesagt: Treibhäuser funktionieren, indem sie den Austritt von Wärmeenergie in die umgebende Atmosphäre durch Konvektion einschränken, während der atmosphärische Treibhauseffekt den Austritt von Wärmeenergie in den Weltraum durch Strahlung einschränkt.«
Wenn immer möglich, belegt die Wissenschaft Theorien durch wiederholbare Experimente, die konsistent Ergebnisse liefern, die der Theorie entsprechen. Auf der Grundlage der 1856 veröffentlichten Theorien von Eunice Foote führte John Tyndall 1859 sein berühmtes Experiment durch, um zu zeigen, wie CO2 Wärmestrahlung absorbiert und weiterleitet. Dies wird oft als experimenteller Nachweis des »Treibhauseffekts« angeführt. Das Experiment von Tyndall wies den behaupteten Treibhauseffekt nicht nach.
Dazu hätte Tyndall einen Temperaturanstieg bei den emittierenden und absorbierenden Objekten nachweisen müssen. Etwas, das Tyndall nicht einmal gemessen hat. Tyndall wies nach, dass Wärmeenergie von einem warmen auf einen kälteren Körper abstrahlt, und zeigte die unterschiedlichen Absorptionseigenschaften verschiedener Gase für elektromagnetische Strahlung.
Andere Experimente werden als angeblicher Beweis für den Treibhauseffekt angeführt. Im Jahr 2020 wurde bei der Royal Society ein Experiment durchgeführt, das angeblich die Mechanismen des Klimawandels qualitativ veranschaulichen sollte. Man platzierte ein auf 50 °C eingestelltes Heizelement im Inneren von Ballons, die auf bestimmte Druck‐Werte aufgeblasen und entweder mit Luft oder reinem CO2 gefüllt waren. Dann schaltete man das Heizelement aus und beobachtete, wie lange die Ballons zum Abkühlen brauchten. Die Experimentatoren stellten fest, dass die Abkühlungsgeschwindigkeit in den mit CO2 gefüllten Ballons viel geringer war.
Erstens war dies keine Demonstration des von den Befürwortern der AGW‐Theorie behaupteten »verstärkten Treibhauseffekts«. Die AGW‐Theorie behauptet, dass die so genannte »Rückstrahlung« des CO2 ohne zusätzliche Energiezufuhr in das System die Temperatur im Ballon erhöhen würde, wenn eine konstante Stromversorgung des Heizelements aufrechterhalten wird. Das Experiment bei der Royal Society hat die AGW‐Theorie oder den angeblichen physikalischen Mechanismus der »globalen Erwärmung« keinesfalls bewiesen.
In Ballons eingeschlossene Gase unter gleich bleibenden oder eingeschränkten Druckverhältnissen verhalten sich nicht wie die tatsächlich frei expandierenden und kontrahierenden Gase in der Erdatmosphäre. Auch ist reines CO2 ist nicht mit dem atmosphärischen CO2-Gehalt vergleichbar. In der Atmosphäre würde sich das CO2 durch Ausdehnung entsprechend des adiabatischen Temperaturgradienten abkühlen. In dem unter Druck stehenden Ballon konnte es das nicht. Auch dieses Experiment konnte den angeblichen Treibhauseffekt nicht nachweisen.
Andere Beweise für die so genannte Treibhausgastheorie sind ebenfalls nicht schlüssig. »Nature« veröffentlichte einen Artikel, der angeblich den atmosphärischen Treibhauseffekt anhand von Satellitenmessungen der von atmosphärischen Gasen und Wolken eingeschlossene Infrarot‐Strahlungsenergie quantifizierte. Die Klimawissenschaftler behaupteten daraufhin, dies sei ein klarer Beweis für eine »positive Rückkopplung« in der Atmosphäre, in diesem Fall für die angebliche Strahlungsverstärkung durch den verstärkten Treibhauseffekt. Sie bewiesen den »verstärkten Treibhauseffekt« nicht, sondern nahmen ihn einfach an und beobachteten die gleichen Gaseigenschaften, die Tyndall mehr als 165 Jahre zuvor nachgewiesen hatte.
Viele Physiker, Astrophysiker, wie Joseph Postma, und andere Wissenschaftler haben andere plausible Erklärungen angeboten. So legte Holmes 2018 nahe, dass die Oberflächentemperatur auch durch nichts anderes als die Auswirkungen des atmosphärischen Drucks und der Wärmeströmung (Konvektion) in der Troposphäre aufrechterhalten werden könnte:
»[E]s wird angenommen, dass die verbleibende Temperaturdifferenz zwischen der effektiven Temperatur und der gemessenen oberflächennahen Temperatur [von Planetenkörpern] eine thermische Zunahme ist, die von der gravitationsbedingten adiabatischen Autokompression, angetrieben durch Konvektion, verursacht wird. Es wird daher eine neue Nullhypothese der globalen Erwärmung oder des Klimawandels vorgeschlagen und begründet, die keine anomale oder Nettoerwärmung durch Treibhausgase in der troposphärischen Atmosphäre irgendeines Planetenkörpers beinhaltet.«
Zwei Klimawissenschaftler, Ned Nikolov und Karl Zeller, erlangten einige Berühmtheit, weil sie Arbeiten unter Pseudonymen veröffentlichten. Verschrien als »Klimaleugner« konnten sie ihre Arbeiten nicht einmal zur Begutachtung einreichen, geschweige denn in »angesehenen« Fachzeitschriften veröffentlichen. Im Jahr 2014 beschlossen sie, Pseudonyme zu verwenden, und ihre Arbeiten wurden daraufhin begutachtet und veröffentlicht. Später wurden die Arbeiten zurückgezogen, nicht aus wissenschaftlichen Gründen, sondern weil die offenbar notwendige Verwendung von Pseudonymen entdeckt wurde. Karl Zeller erklärte, dass »eine Nichtzustimmung zur aktuellen Theorie des Treibhauseffekts keinen Irrtum darstellt«.
Im Jahr 2017 veröffentlichten die Klimawissenschaftler in Nikolov, Zeller (2017) ein Modell zur Berechnung der mittleren globalen Temperatur an der Oberfläche fester Planeten mit und ohne Atmosphäre. Sie wendeten ihr Modell auf Mars, Venus, Triton (ein Mond des Neptun) und Titan (ein Mond des Saturn) an und behaupteten, ihr Modell habe sich als zutreffend erwiesen.
Von entscheidender Bedeutung ist, dass sich ihr Modell zur Schätzung der mittleren globalen Temperatur auf den berechneten Oberflächenluftdruck und die Sonneneinstrahlung stützt. Ihr Modell beinhaltet, dass die chemische Zusammensetzung einer Atmosphäre die Oberflächentemperaturen von Planeten nicht beeinflusst. In der Zusammenfassung ihres Papiers von 2017 schrieben die Wissenschaftler:
»[D]er atmosphärische ›Treibhauseffekt‹, der derzeit als Strahlungsphänomen angesehen wird, ist in Wirklichkeit eine adiabatische (druckbedingte) thermische Steigerung analog zur Kompressionserwärmung und unabhängig von der Zusammensetzung der Atmosphäre. Folglich ist der globale abwärts gerichtete langwellige Strahlungsfluss, von dem derzeit angenommen wird, er verursache die Erwärmung der Erdoberfläche, offenbar ein Produkt der durch die Sonnenerwärmung und den atmosphärischen Druck bestimmten Lufttemperatur. Mit anderen Worten, die so genannte ›Rückstrahlung des Treibhauseffekts‹ ist generell eher eine Folge des atmosphärischen thermischen Effekts als eine Ursache dafür.«
Infragestellung der von der AGW‐Theorie behaupteten Erwärmung
Ein Kernelement der AGW‐Theorie ist die Vorstellung, dass die CO2-Emissionen der Menschheit eine »zusätzliche« und »noch nie dagewesene« globale Erwärmung verursachen. Dementsprechend muss es einen empirischen Nachweis dafür geben, dass der Anstieg des atmosphärischen CO2 einer messbaren Erwärmung vorausgeht. Es scheint keine zu geben.
Es ist allgemein anerkannt, dass es in der Wissenschaft keine einzige Forschungsarbeit gibt, die die Existenz des AGW‐Mechanismus allein mit empirischen Daten belegt. Der Zusammenhang zwischen den Treibhausgasemissionen der Menschheit und dem Klimawandel beruht auf einem komplexen Netz voneinander abhängiger Theorien, Computermodellen und Projektionsberechnungen. In der Tat sind empirische Messungen von Dingen wie die durchschnittliche »Oberflächenlufttemperatur« (SAT – Surface Air Temperature) höchst problematisch.
Rob Jeffrey stellte fest:
»Fast alle Wissenschaftler sind der Meinung, dass in der Vergangenheit natürliche Kräfte langfristige Klimaveränderungen bewirkten. Die Erdgeschichte zeigt, dass der Klimawandel ein Prozess ist, der seit über vier Milliarden Jahren stattfindet. Es dürfte weitgehend Einigkeit darüber bestehen, dass die langfristigen Zyklen des Klimawandels von den Milankovitch‐Zyklen angetrieben werden, deren Verlauf gut dokumentiert ist.«
Die Milankovitch‐Zyklen beschreiben die großen Orbitalzyklen der Erde, die sowohl in der Form der Sonnenbahn als auch in der »Achsneigung« der Erde relativ zur Sonne schwanken. Dadurch erhält die Erde variierende Mengen Solarstrahlung (Gesamtsonneneinstrahlung TSI – Total Solar Irradiance). Dies ist Teil der natürlichen Schwankungen über die Zeit, die sich auf das Klima auswirken.
Die »offizielle« Klimawissenschaft des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC – Intergovernmental Panel on Climate Change) räumt ein, dass Proxy‐Aufzeichnungen früherer Temperaturen, z.B. von Eisbohrkernen, eine Verzögerung von möglicherweise bis zu 800 Jahren zwischen dem Beginn einer globalen Erwärmung und dem Anstieg des atmosphärischen CO2 zeigen. Laut Caillon et al. (2003) scheint die interglaziale Erwärmung in der südlichen Hemisphäre zu beginnen:
»Die Abfolge der Ereignisse […] deutet darauf hin, dass der CO2-Anstieg auf die antarktische deglaziale Erwärmung nach 800 ± 200 Jahren folgte und der Deglazialisierung der nördlichen Hemisphäre vorausging. […] CO2 ist nicht der Antrieb, der das Klimasystem während der Deglazialisierung [Erwärmung] anfänglich antreibt.«
Shakun et al. (2012) entwickelten ein »Computermodell«, das nach Ansicht der Autoren erklärt, was gemäß der AGW‐Theorie als Nächstes passiert. Außer anderen berichtete Skeptical Science darüber:
»Kurz gesagt, die anfängliche Erwärmung wurde tatsächlich durch die Milankovitch‐Zyklen ausgelöst, und diese geringe, durch den Orbitalzyklus verursachte Erwärmung löste schließlich die CO2-Freisetzung aus, die den größten Teil der Erwärmung zwischen den Eiszeiten verursachte. Während das CO2 also einer kleinen anfänglichen Temperaturänderung hinterherhinkte (die hauptsächlich in der südlichen Hemisphäre auftrat), war es die Hauptursache und der Hauptantrieb für den größten Teil der Erwärmung während der Zwischeneiszeit.«
Um das klarzustellen: Die AGW‐Theorie geht davon aus, dass die Sonne nur scheinbar in der Lage ist, die Erdoberfläche auf ‑18 °C zu erwärmen, indem sie den Prozess der globalen Erwärmung zwischen den Eiszeiten in Gang setzt, dass es dann aber zu einer Art natürlich auftretendem verstärkten Treibhauseffekt kommt, bei dem »zusätzliche« freigesetzte Treibhausgase – insbesondere CO2 aus den Ozeanen – die Wärme einfangen und eine »positive Rückkopplung« verursachen.
Angeblich verstärkt dies wiederum die globale Erwärmung. Damit soll erklärt werden, wieso Aufzeichnungen vergangener CO2- und Temperaturverläufe zu zeigen scheinen, dass der Anstieg des atmosphärischen CO2 nicht eine globale Erwärmung verursacht, und zugleich demonstrieren, weshalb CO2 eine globale Erwärmung verursacht.
Wie Skeptical Science es ausdrückt:
»Während also in der Vergangenheit die anfängliche Erwärmung nicht durch CO2 verursacht wurde, hat CO2 die Erwärmung über Tausende von Jahren hinweg verstärkt und ist somit weiterhin der entscheidende Regelknopf für die Temperatur der Erde.«
Laut AGW‐Theorie ist offenbar CO2 der »entscheidende Regelknopf«, während die Sonne zwar der Stromschalter, aber nicht die Stromquelle ist. Schenkt man der AGW‐Theorie Glauben, müsste der Strahlungsantrieb erhebliche Mengen an zusätzlicher atmosphärischer Wärmeenergie erzeugen.
Das Problem bei dieser Vorstellung ist, dass die globalen Temperaturen in der Vergangenheit offenbar genauso hoch oder sogar höher waren als heute, während der CO2-Gehalt in diesen warmen Perioden niedriger lag als heute. Beispielsweise zeigten Martinez‐Cortizas et al. (1999) mit Hilfe von Quecksilberniveaus in Torfmooren als Proxy, dass das Klima im Nordwesten Spaniens während der mittelalterlichen Warmzeit (ca. 950 bis ca. 1250) im Durchschnitt 1,5 °C wärmer und während der römischen Warmzeit (ca. 250 v. Chr. bis ca. 400 n. Chr.) möglicherweise bis zu 2 °C wärmer war als der zum Zeitpunkt der Veröffentlichung angegebene moderne Durchschnitt (1968 – 1998).
Diese Ergebnisse stimmen mit zahlreichen anderen Studien überein, die wärmere, relativ CO2-arme Perioden feststellten. Desprat et al. (2003) z.B. verwendeten Pollenwerte aus Bohrkernen der iberischen Halbinsel, die ebenfalls die römische und die mittelalterliche Warmzeit belegen. Diese Ergebnisse scheinen sowohl der Vorstellung einer beispiellosen modernen globalen Erwärmung als auch der AGW‐Theorie zu widersprechen.
Ljungqvist (2010) verwendete diverse Proxies aus der gesamten nördlichen Hemisphäre, um historische Temperaturen zu rekonstruieren. Diese zeigen wiederum sowohl die römische als auch die mittelalterliche Warmzeit. Während dieser Perioden überstieg der CO2-Gehalt der Atmosphäre laut Befürwortern der AGW‐Theorie wie der NASA nicht die Marke von 280 ppm (parts per million – Teilchen pro Million).
Diese Art empirischer Nachweise veranlasste viele Wissenschaftler, darunter Rob Jeffrey, die AGW‐Theorie in ihrer Gesamtheit in Frage zu stellen:
»Es gibt stichhaltige Nachweise dafür, dass vor allem nicht‐atmosphärische Faktoren, z.B. die Sonne, für die globale Erwärmung und jegliche Klimaveränderung verantwortlich sind.«
So fanden Soon et al. (2015):
»Anhand von thermometergestützten Lufttemperaturaufzeichnungen des Zeitraums von 1850 bis 2010 präsentieren wir empirische Belege für eine direkte Beziehung zwischen der Gesamtsonneneinstrahlung (TSI) und dem Oberflächentemperaturgradienten zwischen Äquator und Pol (Arktis) (EPTG – Equator‐to‐Pole Temperature Gradient). […] Insgesamt deutet alles darauf hin, dass in der warmen Periode seit den 1970er Jahren ein Nettoanstieg der TSI bzw. des projizierten Sonneneinstrahlungsgradienten, der einen Nettoanstieg der Sonneneinstrahlung widerspiegelt, einen Anstieg des ozeanischen und atmosphärischen Wärmetransports in die Arktis verursachte […]«
Im Jahr 2018 schrieb der Atmosphärenforscher Dr. Rex J. Flemming:
»Viele glauben und/oder unterstützen die Vorstellung, die Erdatmosphäre sei ein ›Treibhaus‹ mit CO2 als wichtigstem ›Treibhausgas‹, das die Erde erwärmt. […] Es gibt jetzt ein viel klareres Bild eines alternativen Grundes dafür, weshalb die Oberflächentemperatur der Erde seit 1850 angestiegen ist. Es gibt eine Thermoschicht oder einen Puffer für die atmosphärischen Oberflächenbedingungen, der seit einer Milliarde Jahren existiert […]. Deren genaue Form hängt von der effektiven Sonnenenergie ab, die die Erdoberfläche erreicht. Die Quellen der Thermoschicht und der anschließenden Wärmeübertragung nach oben sind auf drei Komponenten zurückzuführen: das Schwerefeld der Erde mit seinen Auswirkungen auf die Konvektion, die Kondensation von Wasserdampf (H2O) und die Strahlungseffekte der beiden wichtigsten atmosphärischen Spurengase H2O und CO2. Es wird gezeigt, dass die Rolle der Strahlungseffekte von H2O und CO2 relativ gering ist.«
Jeffrey hebt die Arbeit der Astrophysikerin Prof. Valentina Zharkova hervor, die als Hauptautorin zahlreicher Arbeiten herausgestellt hat, wie die variable Sonnenaktivität die bekannten TSI‐Effekte der Orbitalzyklen beeinflusst. Zharkova identifizierte viele Sonnenzyklen, von denen einige nur 11 Jahre dauern. Sie zeigte, wie diese Sonnenaktivitätszyklen den TSI‐Effekt der großen Orbitalzyklen entweder verstärken oder ihm entgegenwirken:
»Dieser Ansatz offenbarte die Existenz nicht nur 11‐jähriger Sonnenzyklen, sondern auch großer Sonnenzyklen mit einer Dauer von 350 bis 400 Jahren. […] Diese großen Zyklen werden stets durch große solare Minima vom Typ des Maunder‐Minimums unterbrochen, die in der Vergangenheit regelmäßig auftraten und die bekannten Maunder‑, Wolf‑, Oort‑, Homersches und andere große Minima bildeten. Während dieser großen Sonnenminima kommt es zu einer erheblichen Schwächung des solaren Magnetfelds und der Sonneneinstrahlung, wodurch die Temperaturen auf der Erde sinken.«
Weltweit befindet sich der Planet nach der Kleinen Eiszeit, die Mitte des 19. Jahrhunderts endete, in einer interglazialen Erwärmungsphase. Was die jüngste Erwärmung angeht, so waren nach den Daten der National Oceanic and Atmospheric Administration (NOAA), die seit 1890 Temperaturaufzeichnungen für alle US‐Bundesstaaten erstellt, die 1930er Jahre das wärmste Jahrzehnt in den USA.
Nach der AGW‐Theorie haben die vom Menschen verursachten CO2-Emissionen aus der Verbrennung fossiler Brennstoffe die globale Erwärmung erheblich verstärkt. Der größte Teil dieser Emissionen soll in der Zeit nach dem Zweiten Weltkrieg erzeugt worden sein. Das wirft die Frage auf: Weshalb waren die 1930er Jahre das wärmste Jahrzehnt des 20. Jahrhunderts in den USA, wenn die CO2-Werte nach dem Zweiten Weltkrieg deutlich angestiegen sind?
Die Themse fror während der Kleinen Eiszeit häufig zu; vielleicht am regelmäßigsten während des Maunder‐Minimums (ca. 1645 bis ca. 1715). Selbst die relativ neue globale Erwärmung begann bereits vor dem bemerkenswerten Anstieg der vom Menschen verursachten CO2-Emissionen der Nachkriegszeit. Wäre das nicht der Fall gewesen, hätten die Londoner noch in den 1920er Jahren Frostjahrmärkte auf der zugefrorenen Themse abgehalten.
Es scheint wahrscheinlich, dass der globale Temperaturanstieg in den letzten Jahrhunderten auf die Absorption vermehrter kurzwelliger Sonnenstrahlung in Folge einer verminderten Albedo der Wolken zurückzuführen ist. Die Erwärmung des Planeten in den letzten 20 Jahren ist offenbar auf die höhere Ultraviolett‐Durchlässigkeit der Wolken zurückzuführen. Das Ausmaß der angeblich durch den so genannten Treibhauseffekt verursachten Infrarotstrahlung scheint vernachlässigbar zu sein.
Dübal und Vahrenholt (2021) erklärten:
»Wir fanden heraus, dass die abnehmende ausgehende [reflektierte] kurzwellige Strahlung der wichtigste Faktor für einen positiven Nettostrom an der TOA (top of the atmosphere – oberer Rand der Atmosphäre) von 0,8 W/m2 in diesem Zeitraum ist. […] Wir vergleichen den klaren Himmel mit bewölkten Gebieten und stellen fest, dass Veränderungen in der Wolkenstruktur die grundlegende Ursache für den Kurzwellentrend sein dürften. […] Der Rückgang der Bewölkung um die Jahrtausendwende um etwa 1,5 % hat sicherlich den positiven Nettostrahlungsfluss begünstigt. […] Dies führt zusammen mit einer verringerten Sonneneinstrahlung von ‑0,17 W/m2 zu einem geringfügigen Wachstum des Ungleichgewichts von 0,15 W/m2. Wir präsentieren außerdem Daten zu den Oberflächenflüssen, die den starken Einfluss der Wolkenbedeckung auf den Strahlungshaushalt belegen.«
Diese Ergebnisse wurden von einem NASA‐Forschungsteam bestätigt, das in einer Veröffentlichung von Loeb et al. (2021) feststellte, dass die Erwärmung im 21. Jahrhundert »in erster Linie auf eine Zunahme der absorbierten Sonnenstrahlung in Verbindung mit einer geringeren Reflexion durch Wolken und Meereis« zurückzuführen ist. Dies bezieht sich auf die beobachtete Verringerung der planetarischen Albedo.
Damit übereinstimmend fand Professor Antero Ollila, dass der »Antrieb der SW‐Anomalie [Kurzwellen‐Anomalie] der Hauptgrund für diesen Temperaturanstieg war. Die SW‐Anomalien hatten ihre größten Auswirkungen auf die globale Temperatur während sehr starker (Super-)El-Niño-Ereignisse in den Jahren 1997 – 98 und 2015 – 16«.
Entsprechend schrieb Rob Jeffrey:
»Die Erdumlaufbahn bedingt diese Zyklen um die Sonne, die verschiedenen Perioden des Exzentrizitätszyklus der Erde, den Obliquitätszyklus und die Präzession der Äquinoktien. Bis vor den letzten 200 Jahren waren alle signifikanten Klimaveränderungen natürlich bedingt […], viele Experten glauben, dass diese kurzfristigeren Zyklen durch Sonnenzyklen bedingt sind. […] Diese werden durch Schwankungen des solaren Strahlungsflusses [einfallende kurzwellige Strahlung, gemessen in W/m2] verursacht, die das Eindringen kosmischer Strahlung und die Wolkenbildung in der Erdatmosphäre beeinflussen und zu Erwärmungs‐ und Abkühlungsperioden führen. […] Die verbleibende Frage ist, wie viel der Mensch derzeit zur kurzfristigen globalen Erwärmung beiträgt. Die Erde hat in den letzten 11.000 Jahren acht Mal ähnliche kurzfristige natürliche Erwärmungsphasen durchlaufen.«
Infragestellung der Auswirkungen menschengemachter CO2-Emissionen
Vielleicht sind die Argumente, die wir hier und in Teil 1 untersucht haben, kaum mehr als eine wissenschaftliche Debatte. Doch selbst wenn wir akzeptieren, wie der »verstärkte Treibhauseffekt« funktionieren soll, gibt es noch weitere Gründe, die AGW‐Theorie in Frage zu stellen.
Wie Rob Jeffrey bemerkte:
»Selbst wenn wissenschaftlich erwiesen ist, dass CO2 eine gewisse globale Erwärmung verursacht, gibt es deutliche Hinweise darauf, dass das menschengemachte CO2 nur einen winzigen Teil des global insgesamt erzeugten CO2 ausmacht.«
Die Atmosphäre enthält etwa 78 % Stickstoff, 21 % Sauerstoff und etwa 0,9 % Argon. Die restlichen 0,1 % bestehen aus Kohlendioxid, Stickstoffoxiden, Methan und Ozon. Darüber hinaus ist Wasserdampf (H2O) eine beachtenswerte Variable. Einige AGW‐Theoretiker behaupten, die Treibhausgase machten 1 % der Atmosphäre aus, aber Argon ist kein Treibhausgas, so dass dies nicht zuzutreffen scheint.
Komplizierend kommt hinzu, dass Wasserdampf in der Atmosphäre leicht zu einer Flüssigkeit kondensiert und wieder zu einem Gas verdampft. Aufgrund seines flüchtigen Charakters kann er bis zu 3 % der gesamten atmosphärischen Gase ausmachen.
Wie oft erwähnt wird, macht das atmosphärische CO2 derzeit mehr als 400 ppm der Atmosphäre aus. Dies entspricht 0,04 % des gesamten atmosphärischen Gases.
Damit würde CO2 etwa 40 % der Treibhausgase ausmachen, wenn wir den Wasserdampf vorübergehend außer Acht lassen. Nach Angaben der US Energy Information Administration (EIA) waren in den 1990er Jahren von den geschätzten 793 Milliarden Tonnen (bmt – billion metric tons) CO2 in der Atmosphäre etwa 23 bmt auf jährliche menschengemachte Emissionen zurückzuführen.
Die menschengemachten CO2-Emissionen Ende des letzten Jahrhunderts würden demnach etwa 3 % des gesamten atmosphärischen CO2 ausmachten. Während der ersten beiden Jahrzehnte des 21. Jahrhunderts nahmen die menschengemachten CO2-Emissionen weiter zu. Einen derzeitigen Durchschnittswert von etwa 35 bmt anzunehmen, d.h. etwa 4,5 % der gesamten CO2-Emissionen, ist nicht unrealistisch. Folglich dürften die menschengemachten CO2-Emissionen etwa 1,8 % aller Treibhausgase ausmachen – der H2O‑Gehalt ist eine Variable, die sich auf diesen Wert auswirkt.
Die Klimawissenschaftler von Skeptical Science stellen fest, dass der vom Menschen verursachte verstärkte Treibhauseffekt der »entscheidende Regelknopf für die Temperatur der Erde« ist. Wenn wir alle Aspekte unseres Lebens radikal ändern und es irgendwie schaffen, die menschengemachten CO2-Emissionen auf Null zu reduzieren (was nicht möglich ist, es sei denn, wir sterben aus), würden bedauerlicherweise mindestens 98,2 % der jährlichen globalen Treibhausgasemissionen weiterhin stattfinden.
Diese Situation wird durch den Wasserdampf noch komplizierter, der nach Masse 80 % und nach Volumen 90 % der Treibhausgase ausmachen kann. Dadurch erhöht sich vermutlich der Gesamtanteil der angeblichen Treibhausgase in der Atmosphäre. Laut NASA ist Wasserdampf bei weitem das dominierende Treibhausgas:
»Wasserdampf ist bekanntlich das am häufigsten vorkommende Treibhausgas der Erde. […] [Forscher] nutzten neuartige Daten des Atmospheric Infrared Sounder (AIRS) auf dem Aqua‐Satelliten der NASA, um die Feuchtigkeit in den untersten 10 Meilen [16 km] der Atmosphäre genau zu messen. Diese Informationen wurden mit globalen Beobachtungen von Temperaturverschiebungen kombiniert. […] Wasserdampf ist der Hauptakteur in der Atmosphäre, soweit es um das Klima geht.«
Die Veränderung des atmosphärischen H2O‑Gehalts soll ein Produkt des Treibhauseffekts sein, der zu weiterer Verdunstung führt. Angeblich trägt Wasserdampf zwischen 66 % und 85 % zum gesamten »Treibhauseffekt« bei. Entscheidend ist, dass in der AGW‐Theorie der Wasserdampf »keine globale Erwärmung verursacht«. Offensichtlich ist er zwar das bei weitem einflussreichste Treibhausgas, doch ist es kein »antreibendes« Treibhausgas. Der Begriff »Strahlungsantrieb« ist für andere Treibhausgase wie CO2 und, in viel geringerem Maße, CH4 (Methan) reserviert.
Wenn wir davon ausgehen, dass bis zu 90 % des Treibhausgas‐Volumens aus Wasserdampf besteht, dann reduziert sich der menschliche CO2-Ausstoß auf etwa 0,3 % der gesamten Treibhausgas‐Emissionen. Bleiben 99,7 % der Treibhausgase, mit denen wir zu kämpfen haben, wenn wir »Netto‐Null‐Emissionen« erreichen.
Da die AGW‐Theorie die Vorstellung ablehnt, der Klimawandel könnte durch die Sonne verursacht sein, wird das Ausmaß, in dem Wolken die Absorption des solaren Strahlungsflusses verändern, weitgehend ignoriert. Das bedeutet, dass der angebliche »Strahlungsantrieb« der Treibhausgase den Wasserdampf als passives Produkt der »antreibenden« Treibhausgase einschließt, aber die Wolkenbedeckung als signifikanten Einflussfaktor für jedweden entsprechenden »Klimawandel« ausschließt.
Das IPCC erklärt dies damit, dass vor allem die menschengemachten CO2-Emissionen, die etwa 0,3 % der Treibhausgase ausmachen (wenn wir den Wasserdampf mit einbeziehen), einen »Nettoerwärmungseffekt« haben, während der Wasserdampf in seiner Gesamtheit keinen solchen Effekt hat. Dies liegt angeblich an der deutlich längeren »Verweilzeit« (residence time) des CO2 in der Atmosphäre.
Wie die EIA feststellt, wurden von den insgesamt 793 bmt CO2, die aus natürlichen und menschengemachten Quellen stammen, im selben Zeitraum 781 bmt wieder vom Planeten aufgenommen – durch Bäume, Ozeane, Verwitterung usw.
Diese Emissions‐ und Absorptionsrate zwischen Kohlenstoff-»Reservoirs« wie Wäldern, Bergen und Ozeanen wird als Kohlenstoffkreislauf bezeichnet. Das Kohlenstoff-»Budget« ist die gemessene Menge an CO2, die pro Zeiteinheit vom Reservoir absorbiert oder emittiert wird. Sie wird z.B. in Kilogramm CO2 pro Tag – kg C/Tag – gemessen.
»Wir haben diesen [Kohlenstoff-]Kreislauf kritisch hinterfragt und stellen ein alternatives Konzept vor, bei dem die Aufnahme von CO2 durch natürliche Senken proportional zur CO2-Konzentration skaliert. Darüber hinaus berücksichtigen wir temperaturabhängige natürliche Emissions‐ und Absorptionsraten, mit denen sich die paläoklimatischen CO2-Schwankungen und die aktuelle CO2-Wachstumsrate gut erklären lassen. Der anthropogene Beitrag zur aktuellen CO2-Konzentration beträgt 4,3 %, sein Anteil am CO2-Anstieg während des Industriezeitalters 15 % und die durchschnittliche Verweilauer 4 Jahre.«
Darauf Bezug nehmend fügte Rob Jeffrey hinzu:
»Die Verweildauer von CO2 in der Atmosphäre ist von entscheidender Bedeutung, denn je länger es in der Atmosphäre verbleibt, desto länger wird ein vermutetes künstliches Ungleichgewicht bestehen. Das IPCC vertritt den (nicht belegten) Standpunkt, dass die Verweildauer von CO2 in der Atmosphäre 100+ Jahre beträgt. Weitere Forschungsergebnisse deuten darauf hin, dass die Verweildauer von CO2 in der Atmosphäre eher bei zehn Jahren (oder weniger) liegt – ein außerordentlich signifikanter Unterschied mit weitreichenden Konsequenzen.«
Diese Beobachtung steht ganz im Gegensatz zu den Behauptungen des IPCC und anderer Verfechter der AGW‐Theorie. Was das IPCC anbelangt, so könnte die Tatsache, dass solche Erkenntnisse scheinbar ignoriert werden, auf politische Voreingenommenheit zurückzuführen sein, wie wir in Teil 3 erörtern werden.
Infragestellung der AGW‐Computermodelle
Der Grund, warum die Klimawissenschaftler darauf bestehen, dass der Klimawandel eine gesicherte Wissenschaft ist, besteht abgesehen von der Tatsache, dass ihre Finanzierung weitgehend davon abhängt, darin, dass alle auf der AGW‐Theorie basierenden »Klimamodelle« als Belege der Theorie ausgegeben werden. Modelle sind von der Theorie abhängig.
Selbst wenn spätere Messungen mit dem Modell übereinstimmen und andere Erklärungen nicht ausgeschlossen werden können, »belegt« das Modell die Theorie noch nicht. Wie Jeffrey, Clauser, Postma, Soon, Flemming, Lindzen, Giaever, Dyson, Curry, Spencer, Coombs und viele andere skeptische Wissenschaftler und andere Skeptiker zu verdeutlichen versuchten, ist es nicht nur unlogisch zu behaupten, ein Modell »belege« eine Theorie, sondern die Computermodelle der AGW‐Theorie erweisen sich häufig entweder als voreingenommen oder im Grunde schlichtweg als falsch.
Da eine Abkühlung der Stratosphäre beobachtet wurde, »belegt« laut Dr. Hossenfelder und weiteren Klimawissenschaftlern die Übereinstimmung mit dem Modell von Manabe und Wetherall aus dem Jahr 1967 – siehe Teil 1 – die AGW‐Theorie und widerlegt angeblich die Vorstellung, eine Veränderung der Sonneneinstrahlung könnte etwas mit der jüngsten globalen Erwärmung zu tun haben. Diese werde stattdessen durch einen »verstärkten Treibhauseffekt« verursacht, sagen sie.
Wie in Teil 1 erwähnt, behaupten Santer et al. (2023), den angeblich unbestreitbaren »Fingerabdruck« der AGW‐Theorie entdeckt zu haben.
Bei der Betrachtung der Messwerte in der mittleren bis oberen Stratosphäre stellten Santer et al. (2023) fest, dass der Ausbruch des Mount Pinatubo im Jahr 1991 eine Erwärmung der Stratosphäre verursachte, dass aber nach der anfänglichen Erwärmungsphase der Vulkanausbruch »die allmähliche anthropogen bedingte Abkühlung der Stratosphäre verstärkt«. Es ist anzumerken, dass es sich hier um die beobachtete Verstärkung eines unbewiesenen theoretischen Effekts handelt.
Satellitendaten der Universität von Alabama zeigen die Erwärmung der Stratosphäre und die anschließende Abkühlung nach den Ausbrüchen von El Chichon (1982) und Mt. Pinatubo (1991). Nach jedem Ausbruch sanken die Stratosphärentemperaturen unter das Niveau, das sie vor dem Ausbruch hatten. Anstelle eines monotonen linearen Temperaturrückgangs zeigten die Daten, dass die vulkanische Aktivität zu einem deutlichen Rückgang der Stratosphärentemperaturen führte. Im Jahr 2009 schrieb das US National Center for Atmospheric Research: »Die stratosphärischen Veränderungen sind nicht monoton [nicht durchgängig linear in einer einzigen Abwärtskurve], sondern eher stufenförmig.«
Im Januar 2022 brach der Unterwasservulkan Hunga Tonga‐Hunga Ha‐apai aus. Sellito et al. (2022) erklärten:
»Wir stellen fest, dass der Hunga Tonga‐Hunga Ha‐apai‐Ausbruch die größte globale Veränderung der stratosphärischen Aerosole seit dem Pinatubo‐Ausbruch im Jahr 1991 und die größte Veränderung des stratosphärischen Wasserdampfs, die in der Satellitenära beobachtet wurde, verursachte. […] Der wahrscheinliche stratosphärische Ozonabbau aufgrund der Aerosol‐ und Wasserdampfeinträge könnte zu einer starken zusätzlichen Abkühlung der Stratosphäre führen.«
Ozon (O3) hat in der Stratosphäre eine erwärmende Wirkung, wie 2004 die NASA feststellte:
»Ozon erzeugt Wärme in der Stratosphäre, indem es sowohl die ultraviolette Strahlung der Sonne als auch die aufsteigende Infrarotstrahlung aus der unteren Atmosphäre (Troposphäre) absorbiert. Folglich führt ein Rückgang des Ozons in der Stratosphäre zu niedrigeren Temperaturen. Beobachtungen zeigen, dass sich die mittlere bis obere Stratosphäre (30 bis 50 km über der Erdoberfläche) in den letzten Jahrzehnten um 1° bis 6° C abgekühlt hat (2° bis 11° F).«
Die Abkühlung der Stratosphäre, möglicherweise verursacht durch den Hunga‐Tonga‐Ausbruch, wurde von Schoeberl et al. (2023) klar beobachtet. Diese und frühere Erkenntnisse nach den Ereignissen von El Chichon und Mt. Pinatubo deuten darauf hin, dass die Abkühlung der Stratosphäre durch vulkanische Aktivitäten nicht nur »verstärkt« wird. Es kann nicht ausgeschlossen werden, dass Vulkanausbrüche tatsächlich ein wesentlicher Faktor für den Ozonabbau und damit für die Abkühlung der Stratosphäre sind.
Der andere Aspekt des behaupteten »Fingerabdrucks« der AGW‐Theorie besteht darin, dass die Abkühlung der Stratosphäre gleichzeitig mit der Erwärmung der Troposphäre auftritt, die zusammen angeblich durch den »verstärkten Treibhauseffekt« verursacht werden. Eine geringere Albedo des Planeten führt jedoch dazu, dass mehr kurzwellige »ultraviolette« Strahlung die Erde erwärmt. Die CERES EBAF-Messungen bei der NASA deuten auf einen erheblichen Rückgang der Albedo der Erde in den letzten 20 Jahren hin, insbesondere auf der Nordhalbkugel, die eine weitaus größere »Schwarzkörper«-Landmasse aufweist.
Darüber hinaus erhöht der Ozonabbau, der die Stratosphäre abkühlt, auch die Menge der ultravioletten (UV) Strahlung, die die Erdoberfläche erreicht. In Verbindung mit der verringerten Albedo deutet dies darauf hin, dass die Erde mehr kurzwellige »ultraviolette« Sonnenstrahlung absorbiert und sich der Planet dadurch erwärmt. Der vulkanische Ozonabbau hat offensichtlich zu diesem Prozess beigetragen.
Santer et al. (2023) zufolge verursachten die vom Menschen erzeugten Treibhausgase von 1986 bis 2022 eine Erwärmung der Erdoberfläche. Die Daten von CERES EBAF und die Erkenntnisse von Schoeberl et al. (2023) deuten darauf hin, dass die Erwärmung durch einen erhöhten solaren Strahlungsfluss verursacht wird. Die Oberfläche könnte durch die Sonne erwärmt werden und die Stratosphäre könnte sich infolge natürlicher Schwankungen abkühlen.
So gesehen gibt es keinen schlüssigen »Fingerabdruck« der AGW‐Theorie, wie einige »Klimawissenschaftler« behaupten. Das Modell von Manabe und Wetherall aus dem Jahr 1967 bietet lediglich eine mehrerer möglicher Erklärungen.
Zudem könnten wir sowohl das Ausmaß als auch das Muster der in den AGW‐Klimamodellen behaupteten troposphärischen Erwärmung in Frage stellen. Beispielsweise stellten Mitchel et al. (2020) eine konsistente Verzerrung in den AGW‐Klimamodellen fest, die dazu neigen, sowohl die Erwärmung der Troposphäre als auch die Abkühlung der Stratosphäre zu übertreiben:
»[W]ir finden in den von CMIP 6 [Coupled Model Intercomparison Project] modellierten Trends beträchtliche Verzerrungen in Richtung Erwärmung, und wir zeigen, dass diese Verzerrungen mit Verzerrungen der Oberflächentemperatur zusammenhängen. Wir decken auch bisher nicht dokumentierte Verzerrungen in der unteren und mittleren Stratosphäre auf: Die CMIP 6‑Modelle scheinen nicht in der Lage zu sein, die zeitliche Entwicklung der stratosphärischen Abkühlung zu erfassen, die nicht monoton ist.«
Jain et al. (2023) vermuten, dass der Grund, warum die AGW‐Modelle häufig nicht mit den empirischen Daten übereinstimmen, in der schlecht verstandenen »internen Variabilität« liegt:
»In der wissenschaftlichen Literatur finden sich zahlreiche Beispiele für die Nichtübereinstimmung von Modellen und beobachteten Klimamerkmalen, z.B. Trends bei regionalen Niederschlagsmengen und Temperaturen, multidekadische Veränderungen der atmosphärischen Zirkulation und Klimatologie, die Häufigkeit oder das Ausmaß von Extremereignissen […] oder externe Antriebseffekte. Es kann viele Gründe geben, warum die Modelle nicht mit den Beobachtungen übereinstimmen. Eine mangelnde Übereinstimmung zwischen dem modellierten und dem beobachteten Klima kann jedoch auch einfach aufgrund chaotischer interner Variabilität entstehen«.
Ayer et al. (2021) definierten interne Variabilität als »die natürliche Variabilität des Klimas aufgrund seiner chaotischen und nichtlinearen Natur«. Das IPCC räumt ein, dass das Klima ein chaotisches System ist, das sich einer genauen Vorhersage entzieht:
»Das Klimasystem ist ein gekoppeltes, nichtlineares, chaotisches System, so dass eine langfristige Vorhersage künftiger Klimazustände nicht möglich ist. Vielmehr muss der Schwerpunkt auf der Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Erzeugung von Ensembles von Modelllösungen liegen.«
Die Tatsache, dass eine »langfristige Vorhersage künftiger Klimazustände« laut IPCC unmöglich ist, untergräbt alle derzeitigen »Klimaalarme« darüber, wie das Klima in hundert oder zweihundert Jahren aussehen wird. Vielleicht kann »die Erzeugung von Ensembles von Modelllösungen« die »Wahrscheinlichkeitsverteilung« wahrscheinlicher zukünftiger Klimazustände vorhersagen, aber fast alle Modelle, auf die sich das IPCC bezieht, sind ausschließlich auf der Grundlage einer AGW‐Theorie konstruiert. Sie alle könnten grundlegend fehlerhaft sein.
Die »Gleichgewichts‐Klimasensitivität« (ECS – Equilibrium climate sensitivity) wird in Übereinstimmung mit der AGW‐Theorie in Sherwood et al. (2020) definiert als »die stationäre globale Temperatursteigerung bei einer Verdoppelung des CO2«. Das Sherwood‐Papier bot ein auf der AGW‐Theorie basierendes ECS‐Modell. Es hatte großen Einfluss auf den sechsten wissenschaftlichen Bewertungsbericht des IPCC (AR 6), der 2021 veröffentlicht wurde.
Bisher wurde in den ARs des IPCC behauptet, eine Verdopplung des CO2 verursache eine »globale Erwärmung« zwischen 1,5 °C und 4,5 °C. Dies änderte sich im AR 6, vor allem dank des Sherwood‐Modells, zu der Behauptung, die ECS führe zu einer Erwärmung von 2,5 °C oder vielleicht bis zu 4,5 °C oder vielleicht 5 °C.
Als der unabhängige Forscher und Mathematiker Nic Lewis die Methodik des Sherwood‐Papiers überprüfte, das vom IPCC mehr als zwanzig Mal zitiert wurde, behauptete er, erhebliche Fehler, Ungereimtheiten und andere mathematische Unzulänglichkeiten gefunden zu haben. Unter Verwendung desselben Datensatzes, aber anderer Analysetechniken, fand Lewis, dass die ECS zu einer Erwärmung von »zwischen 1,5 °C und 2 °C« führt – deutlich weniger, als das von Sherwood beeinflusste IPCC behauptet.
Dr. Roy Spencer ist ein ehemaliger leitender Wissenschaftler an der Universität von Alabama in Huntsville und leitender Wissenschaftler für Klimastudien am Marshall Space Flight Center der NASA. Derzeit ist er Teamleiter für das Advanced Microwave Scanning Radiometer auf dem Aqua‐Satelliten der NASA. Dr. Spencer behauptet, dass die Klimasensitivität, die darauf hindeutet, dass die vom Menschen verursachten CO2-Emissionen einen »verstärkten Treibhauseffekt« verursachen, die interne Variabilität in einem solchen Ausmaß übersieht, dass die »Verstärkung« praktisch nicht nachweisbar ist.
Deshalb wird er von den etablierten Medien als Klimaleugner bezeichnet. Nichtsdestotrotz sagt Dr. Spencer:
»[Der Begriff] ›globale Erwärmung‹ bezieht sich auf den Anstieg der globalen Durchschnittstemperatur, der in den letzten hundert Jahren oder mehr beobachtet wurde. Für viele Politiker und die Öffentlichkeit impliziert der Begriff jedoch, dass der Mensch für diese Erwärmung verantwortlich ist. […] Um herauszufinden, wie viel der bisherigen Erwärmung auf den Menschen zurückzuführen ist und wie viel mehr wir in der Zukunft erwarten können, ist die so genannte ›Klimasensitivität‹ [ECS] entscheidend. […] Man sollte meinen, dass wir die ›Klimasensitivität‹ der Erde inzwischen kennen, aber es war bisher überraschend schwierig, sie zu bestimmen.«
Wikipedia erklärt uns:
»Technisch ausgedrückt ist die Klimasensitivität die durchschnittliche Änderung der globalen mittleren Oberflächentemperatur [GMST – global mean surface temperature, oder einfach GST] in Reaktion auf einen Strahlungsantrieb«.
Die GST wird derzeit durch Mittelwertbildung der Temperaturanomalien der Ozeane (SST – sea surface temperature, Meeresoberflächentemperaturanomalie) und der Oberflächentemperaturanomalien der Kontinente (surface temperature anomalies) berechnet. Dies sind absolut wesentliche Inputs für die auf der AGW‐Theorie basierenden Modelle der »Klimasensitivität«.
Das Goddard Institute for Space Studies (GISS) der NASA liefert dem IPCC »Schätzungen« der SAT, d.h. der Lufttemperatur im Bereich von etwa 2 m über der Erdoberfläche. Die sogenannte »GISTEMP‐Analyse« ist einer der vier Schlüsseldatensätze, die in die vom IPCC favorisierten Modelle der AGW‐Theorie einfließen. Bei der Betrachtung, was die SAT ist und wie man sie misst, erklärte das GISS bis 2018, dass man
»bezweifle, dass es eine allgemeine Vereinbarung darüber gibt, wie diese Frage zu beantworten ist. […] Um die SAT zu messen, müssen wir uns darauf einigen, was sie ist, und soweit [GISS] weiß, ist kein solcher Standard vorgeschlagen oder allgemein angenommen worden.«
In Bezug auf die Berechnung der SAT‐Komponente der GST fügte GISS hinzu:
»Auch hier gibt es keine allgemeingültige richtige Antwort. Sollen wir die Temperatur alle 6 Stunden aufzeichnen und den Mittelwert angeben, sollen wir dies alle 2 Stunden oder stündlich tun, sollen wir sie sekündlich von einer Maschine aufzeichnen lassen, oder sollen wir einfach den Durchschnitt der höchsten und niedrigsten Temperatur des Tages nehmen? An manchen Tagen können die unterschiedlichen Methoden zu drastisch unterschiedlichen Ergebnissen führen.«
Das GISS hat seine Überlegungen zu diesem Thema vor kurzem aktualisiert. Es stellt nun fest:
»Da SAT variiert beträchtlich, so dass diese Zahl nicht unbedingt den Durchschnitt eines größeren Gebiets widerspiegelt. SAT‐Karten können nur mit einer Art Modell erstellt werden. […] Im globalen Durchschnitt beträgt diese Schwankung etwa 0,5 °C.«
und
»[…] verschiedene Ansätze können je nach den Besonderheiten des Wetters am betreffenden Tag systematisch unterschiedliche Antworten liefern. […] [U]nterschiedliche Modelle führen zu leicht unterschiedlichen Schätzungen der SAT. […] Statistische Ansätze (wie die von Jones et al. (1999) verwendeten) weisen eine ähnliche Unsicherheit auf.«
Um es klar zu sagen: Es gibt keine allgemein anerkannte, systematische Methode, um den aktuellen durchschnittlichen SAT‐Wert der Erde zu berechnen. Dennoch stützen sich fast alle auf der AGW‐Theorie basierenden Modelle auf die berechnete SAT als Eingabewert der »Klimasensitivität«.
Santer et al. (2021) (nicht 2023) zeigten, dass zwischen 1988 und 2019 die beobachtete Meeresoberflächentemperatur [SST], die troposphärische Temperatur und der gesamte troposphärische Wasserdampf eine geringere Erwärmung der Tropen zeigten als von den Klimamodellen der AGW‐Theorie vorhergesagt. Die Schlussfolgerung lautete nicht, dass die Computermodelle der AGW‐Theorie möglicherweise falsch sein könnten, sondern dass die »großen Unsicherheiten in den Beobachtungen« berücksichtigt werden müssten.
Die etablierten Medien nutzten das Papier, um den Klimaalarm zu verstärken, indem sie berichteten, dass die Satellitenmessungen die globale Erwärmung 40 Jahre lang unterschätzt hätten. Das stand zwar nicht in der Studie, aber man konnte es daraus ableiten, und das ist die Geschichte, die erzählt wurde.
Bei der Prüfung der Arbeit von Santer et al. (2021) stellte Dr. Roy Spencer fest:
»Ich komme zu dem Schluss, dass die Studie nichts Neues enthält, das Zweifel an der Geringfügigkeit der von Satelliten gemessenen Erwärmung der Troposphäre aufkommen ließe – es sei denn, man glaubt, die Klimamodelle seien ein Beleg; in diesem Fall brauchen wir ohnehin keine Beobachtungen. […] Die Studie von Santer et al. stimmt weitgehend mit der Ansicht überein, dass die globale Erwärmung signifikant langsamer voranschreitet als von den neuesten Klimamodellen vorhergesagt, und dass ein Großteil der Unstimmigkeiten zwischen Modellen und Beobachtungen auf falsche Annahmen in diesen Modellen [der AGW‐Theorie] zurückgeführt werden kann.«
Kürzlich unterzeichneten mehr als 1.800 Wissenschaftler, akademische Forscher und andere Skeptiker der AGW‐Theorie, darunter auch Nobelpreisträger, eine gemeinsame Erklärung:
»Wer den Ergebnissen eines Klimamodells Glauben schenkt, glaubt das, was die Modellmacher hineingegeben haben. Genau das ist das Problem der heutigen Klimadiskussion, in der Klimamodelle eine zentrale Rolle spielen. Die Klimawissenschaft ist zu einer Diskussion verkommen, die auf Überzeugungen und nicht auf solider, selbstkritischer Wissenschaft beruht. Sollten wir uns nicht von dem naiven Glauben an unausgereifte Klimamodelle befreien?«
Wir sollen glauben, dass die Wissenschaft feststeht und dass es eine Art Ketzerei ist, »die Klimawissenschaft™« in Frage zu stellen. Die UNO und ihr IPCC gehören zu den »zwischenstaatlichen« Gremien, die nicht nur verlangen, dass wir vorbehaltlos allem zustimmen, was sie uns sagen, sondern uns, wenn wir es nicht tun, beschuldigen, eine Form von Hassrede zu betreiben.
Wie wir in Teil 3 erörtern werden, haben der IPCC und andere Befürworter der AGW‐Theorie gigantische finanzielle Interessenkonflikte. Öffentliche und private Institutionen und Organisationen, die die AGW‐Theorie vorantreiben, verfolgen eine klare politische Agenda, die wenig mit der Lösung von Umweltproblemen zu tun hat. Auch scheint es keine offensichtliche Grundlage für einen »Klimaalarm« zu geben.
In Teil 3 gehen wir den Belegen nach, die darauf hindeuten, dass die Erzählungen, die uns über den angeblichen »Klimanotstand« vermittelt werden, nichts weiter als Propaganda sind.
Ich danke meinem Editor/meiner Editorin, der/die seit Oktober 2021 unschätzbare Beiträge zu meinen Artikeln geliefert hat (der/die es aber aus persönlichen Gründen vorzieht, anonym zu bleiben).
Ihr könnt mehr von Iains Arbeit in seinem Blog IainDavis.com (ehemals InThisTogether) oder auf UK Column lesen, ihm auf Twitter folgen oder seinen SubStack abonnieren. Sein neues Buch »Pseudopandemic« ist jetzt sowohl als Kindle als auch als Taschenbuch bei Amazon und anderen Anbietern erhältlich. Ihr könnt auch ein Gratisexemplar anfordern, indem ihr seinen Newsletter abonniert.
Dieser Text erschien in Englisch am 23. Dezember 2023 im offGuardian.
Bild: Melting ice cream on a bridge Wikimedia Commons | HTO
Vielleicht als Ergänzung, weitere Gesichtspunkte, oder auch nur Wiederholung (falls die oder einige Gesichtspunkte auch im Artikel behandelt sind, fange gerade erst an zu lesen):
()https://ansage.org/der-weltklimarat-und-der-traum-vom-natuerlichen-atmosphaerischen-treibhauseffekt/
Auch wenn man die veröffentlichende Plattform vielleicht nicht mag, finde ich in dem Artikel von Uli Weber doch beachtenswerte Aspekte, etwa, dass das Thema »Klimawandel« schon von einem Metereologen Wladimir Köppen und dem berühmten Alfred Wegener (den Entdecker der Kontinentalverschiebung) _1924_(!) ausführlich wissenschaftlich behandelt wurde mit deren Ergebnis, dass Erwärmung und Abkühlung auf der Erde dem Milanković‐Zyklus folgen – und nur dem.
»Die Erwärmung des Planeten in den letzten 20 Jahren ist offenbar auf die höhere Ultraviolett‐Durchlässigkeit der Wolken zurückzuführen.«
Meines Wissens: UV‐Strahlung transportiert kaum erwärmungsbewirkende Energie (natürlicher Weise, bei Lichtquellen wie Lasern oder anderem monochromatischen, technischem Licht mag das anders sein). Es ist die IR‐Strahlung (Nahes und Fernes Infrarot und Rot, das ist die Wärme die man spürt, wenn man etwa unter einem Heizpilz sitzt oder neben einem Kaminofen oder Lagerfeuer), das ist der Strahlungsanteil der Sonne, der hauptsächlich die Wärme überträgt. Mit UV‐Strahlung die »energiereicher« (im Sinne einer physikalischen Definition) ist, kann man zwar zB Molekülbindungen brechen oder die Haut bräunen (durch chemische Umwandlungen in der Haut), aber spürbare, (so genannte »sensible«) Wärme ist dabei höchstens ein Nebeneffekt (würde starke UV‐Strahlung auch stark erwärmend wirken, würde man in einem Solarium tatsächlich schmoren). Natürlich wird bei thermischen Quellen immer die eine Strahlungsart von der anderen Strahlungsart mehr oder weniger begleitet. Dass das Strahlungs‐Maximum eines heißen Körpers immer mehr in den IR‐Bereich verschoben wird, je höher die Temperatur ist, ändert nichts an der Tatsache, dass der Wärmestrom im roten und IR‐Wellenlängen schließlich auch immer weiter ansteigt. Der Hauptanteil an Strahlungsenergie (Integral unter den jeweiligen Flächen) liegt immer im IR‐ und Rot‐Bereich.
zB ()https://upload.wikimedia.org/wikipedia/commons/thumb/f/f2/BlackbodySpectrum_loglog_de.svg/330px-BlackbodySpectrum_loglog_de.svg.png (man vergleiche die Größen der Flächen unter den Kurven im IR‐Bereich mit denen im UV‐Bereich)
Eine so genannte Kaltlicht‐Quelle zeichnet sich wie der Name schon sagt durch Licht aus, das nicht nur kalt entsteht (Luminiszenz, Fluoreszenz, Gasentladungen wie bei Leuchtstoffröhren) sondern auch keinen fühlbaren Wärmeeindruck beim Empfänger hervorruft.
Bei einem Pyrometer, also einem Temperaturmessgerät, dass die Temperatur eines Körpers (800 – 3.000 °C) aus seiner sichtbaren Strahlung ermittelt, wird oft ein nur Rot durchlassendes Filter in das Strahlungsmessfeld geschaltet.
Das zum Thema: Wärmetransport durch UV‐ versus IR‐Strahlung.
Insgesamt zeigt der Artikel für mich nur, wie Theorien zusammengesponnen werden können um sich »seine Welt zu machen«. Mehr macht der Artikel für mich nicht klar. Will er wohl auch gar nicht sondern eben gerade die kontroverse Diskussion darstellen.
Eines ist physikalisch absolut sicher: die Temperatur auf der Erde (soweit man überhaupt sinnvoll von einer »globalen Temperatur« sprechen kann, und wie zuverlässig eine solche zu bestimmen wäre, ist noch eine offene Frage) ist eine Folge von Sonneneinstrahlung auf und Wärme‐Abstrahlung von der Erde in den kalten Weltraum, eine Eingangs‐Ausgangs‐Bilanz die letztlich immer ins Gleichgewicht strebt und damit an sich schon ausgleichend und dämpfend wirkt.
Vor Einstein gab es vielleicht 4 Lehrstühle für theoretische Physik in Deutschland (damals eines der Haupt‐ Zentren der Wissenschaften, weltweit, Deutsch war wichtigste Wissenschaftssprache), und deren Inhaber wurden als eine Art Hilfswissenschaftler für die praktischen, experimentierenden, messenden Physiker angesehen. Nachdem Einstein seine »Gedankenexperimente« aufgeführt und viel Beifall dafür erhalten hatte, wandte sich das Blatt: heute gibt es massenhaft Lehrstühle für theoretische Physik, Mathematiker bzw. Mathematik bestimmen wo es lang geht (siehe etwa »Lost in Math« von Dr. Hossenfelder), und die Physiker, die im Labor arbeiten, experimentieren und messen, sind zu Hilfsarbeitern degradiert worden.
»Wissenschaft« wird heute durch Spinntisiererei abgelöst, die von Einstein prominent eingeführt wurde. Theorien schlagen heute die reale Naturerfahrung. Simulieren und Modellieren werden über Experimente und Beweise gestellt. Und Geldinteressen machen ein weiteres aus, um »Wissenschaft« zum völligen Narrenspiel verkommen zu lassen. Und heute glaubt man sogar schon der »Wissenschaft«, auch wenn deren Behauptungen der direkten, unmittelbaren, eigenen Erfahrung widerspricht.
Wie ich immer wieder betone: in einem intransparenten Behälter (ein geschlossener, dünn‐wandiger Kasten wie etwa der eines LKWs oder eines fensterlosen Kastenwagens) wird es in der Sonne fast oder sogar tatsächlich genauso warm, wie in einem transparenten Behälter (etwa Auto, oder eben Gewächshaus).
Das Märchen vom »Treibhaus Atmosphäre«, die Erzählungen von einem »Strahlungsantrieb«, die angeblich lauernden Kipppunkte, etc., alles zusammenphantasiertes Zeugs weil dafür Geld gegeben wird, egoistische Interessen und Ziele dahinter stehen.
Hmmm, Link für Bild funktioniert nicht. Vielleicht der hier
()https://upload.wikimedia.org/wikipedia/commons/thumb/f/f2/BlackbodySpectrum_loglog_de.svg/1920px-BlackbodySpectrum_loglog_de.svg.png
oder auf der Seite oben:
()https://de.wikipedia.org/wiki/Wärmestrahlung
Typo:
Dass das Strahlungs‐Maximum eines heißen Körpers immer mehr in den ___UV‐Bereich___verschoben wird, je höher die Temperatur ist, ändert nichts an der Tatsache, dass der Wärmestrom im roten und IR‐Wellenlängen schließlich auch immer weiter ansteigt.
Typo:
Dass das Strahlungs‐Maximum eines heißen Körpers immer mehr in den ___UV‐Bereich___verschoben wird, je höher die Temperatur ist, ändert nichts an der Tatsache, dass der Wärmestrom im roten und IR‐Wellenlängen schließlich auch immer weiter ansteigt.
Zu den GISS‐Zitaten: nicht mitzitiert wird, dass die GISS‐Antworten in »Ich«-Form gegeben werden. Zum Beispiel heißt es: »Ich bezweifle, dass es eine allgemeine Vereinbarung darüber gibt …« Die GISS‐Seite gibt keinen Namen dieser »Ich«-Person an. Insofern lässt GISS sie für sich sprechen.
Die GISS‐Antwort »Auch hier gibt es keine allgemeingültige richtige Antwort. …« bezieht sich auf die Mittelwertberechnung der SAT, nicht auf eine »Berechnung der SAT‐Komponente der GST«. Sie könnte sich jedoch genausogut auf die GST beziehen. Siehe hierzu Kleine linke Klimaserie (VI): https://magma-magazin.su/2023/01/sunnifa/kleine-linke-klimaserie-vi-paris-temperaturanomalien-und-mittelungen-wetterballons-und-unsere-atmosphaere/
Der Autor scheint die von GISS gelieferten Temperaturanomalien (GMST) mit absoluten Temperaturangaben (SAT) durcheinander zu würfeln.
Zu Harde (2016 bzw. 2017) verfassten mehrere Wissenschaftlerinnen einen lehrreichen, wiewohl zurückweisenden Kommentar: https://epic.awi.de/id/eprint/46881/1/revision_harde_comment.pdf. Darin wird zwischen »residence time« des CO2 (Verweildauer) and »adjustment time« (Anpassungsdauer des Klimasystems an den höheren CO2‐Gehalt) unterschieden.