Zur Bestimmung der Seewassertemperaturen: Ein Schiff wird

Zur Bestimmung der Seewassertemperaturen: Ein Schiff wird kommen… …und das bringt mir den Eimer. So könnte eine Hymne für Klimastatistiker auch beginn...
4 downloads 2 Views 3MB Size
Zur Bestimmung der Seewassertemperaturen: Ein Schiff wird kommen… …und das bringt mir den Eimer. So könnte eine Hymne für Klimastatistiker auch beginnen. Jedenfalls wurde auf diese Weise über viele Jahrzehnte (bis etwa 1941) ausschließlich und wird auch noch heute in nennenswerten Anteilen die Oberflächentemperatur der Ozeane (SST, „Sea Surface Temperature“) gemessen. Ein Eimer wird vom Schiff herabgelassen, ins Wasser getaucht und wieder hochgezogen. Woraufhin irgendein Seemann irgendein Thermometer in diesen Eimer hält und an diesem die Temperatur abliest. Ja, das ist tatsächlich so. Man mag es sich kaum vorstellen, aber auf diese Weise entstand und entsteht ein Großteil der Daten, auf denen die Idee von der Klimakatastrophe beruht. Die „mittlere globale Temperaturanomalie“ ist seit längerem eines meiner Lieblingsthemen (“Drei Anmerkungen zu zwei Grad“, “Diagnose Klimafieber”, Novo Argumente Nr. 103, 11/12-2009). Ich bezweifle, kurz gesagt, die Validität ihrer Bestimmung. Anders ausgedrückt sehe ich klare Indizien, daß sie genau das nicht repräsentiert, was sie eigentlich repräsentieren soll: Die mittlere Temperatur der bodennahen Luftschichten, die sich einstellen würde, wäre die Erdatmosphäre im thermodynamischen Gleichgewicht. Es gibt dafür physikalische Argumente, aber auch die Fragestellungen des Verfahrens (Messung und Modellierung) sind von großer Bedeutung. Eine sehr gelungene Darstellung der Ungereimtheiten in den Verfahrensfragen liefert nun Ross McKitrick in einem aktuellen Report. Er hat darin so ziemlich alles zusammengestellt, was der Öffentlichkeit über die Bestimmung der mittleren globalen Temperaturanomalie bekannt ist. Sowohl hinsichtlich der Durchführung der Messungen, als auch hinsichtlich deren Homogenisierung und Anpassung. Letztere sind erforderlich, da man aus den Messungen ein Klimasignal, einen langjährigen Trend ableiten möchte. Die Daten der Wetterstationen (und der Eimer) sind daher von Kontaminierungen durch Änderungen der Meßinstrumente, des Standortes, der Bebauung und Besiedelung, der Landnutzung und lokaler Emissionen (bspw. Staub) zu befreien (u.a.). Erstens sind diese für eigentlich alle Standorte nicht ausreichend dokumentiert (Eimer aus Holz? – oder aus Metall?) und zweitens wüßte man wahrscheinlich auch im gegenteiligen Falle nicht wirklich, damit umzugehen. Also behilft man sich mit statistischen Verfahren. Schlußendlich, und das ist immer wieder zu betonen, stellen die bekannten Datenreihen der Temperaturanomalie keine Messungen dar, sondern Berechnungen anhand entsprechender Modellannahmen. McKitrick faßt die Essenz seiner Untersuchung wie folgt zusammen (in meiner freien deutschen Übersetzung):

Es existieren ernstzunehmende Qualitätsprobleme in den Datensätzen der Oberflächentemperaturen, die deren Kontinuität und Genauigkeit in Frage stellen. Nutzer sollten sich dieser Beschränkungen, vor allem hinsichtlich politischer Schlußfolgerungen, bewußt sein. Ich kann den Report nur zur Lektüre empfehlen. Und es ist immer wieder interessant zu sehen, wie die Climategate-Mails helfen können, offene Fragestellungen genauer zu charakterisieren. Diese Hilfestellung war von den beteiligten Wissenschaftlern wohl eher nicht intendiert. Außerdem legt McKitrick dar, daß die Dekontaminierung der Messungen von den oben genannten lokalen Effekten wohl doch nicht ganz so perfekt ist, wie immer behauptet. Da sind noch ein paar Löcher im Eimer. Dr. Peter Heller; mit freundlicher Genehmigung; zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE (BETA): Erneuter Rückschlag für Klimaalarmisten – Die globale Strahlungsbilanz zeigt ein starkes negatives Feedback Temperaturmessungen mit langen Zeitreihen Der Treibhauseffekt

Focus Online, 05.02.08, 08:25 Klimawandel Forscher benennen neun Schlüsselstellen Da treffen sich "80 Klima-Experten", und setzen die Menschheit wieder einmal in Angst + Schrecken, indem sie auf einer einzigen DIN-A-4-Seite eine Katastrophen-Konstruktion zu Papier bringen, in der sie mit 14 Konjunktiven (in Worten: vierzehn!) und zwei Konditional-Konstruktionen die Welt verändern. Ob bei den Focus-Lesern oder gar -Redakteuren den Unterschied zwischen Phantasie + Wahrheit noch irgend jemand bemerkt ?? Man kann kaum damit rechnen, denn einerseits ist die Sprachkultur insbesondere auf dem Gebiet der Klima-Debatte erledigt + erschossen, andererseits sind die meisten Leute (leider unabhängig vom Intellekt) soweit abgestumpft, daß sie nicht mehr erkennen können, daß die "Klima-Kaiser" gar keine Kleider anhaben! Herrn Queißer danke für das Original aus FOCUS. Eisschild, Meereis, Wälder – über 80 weltweit führende Klimaexperten(!!!???) haben sich auf neun Elemente geeinigt(?), die unser Klima zum Kippen bringen können (1.Konjunktiv). Das Grönlandeis gehört zu den neun Kippelementen für das Klima. Der

Grönländische Eisschild und der Amazonas-Regenwald gehören nach Ansicht führender Klimaforscher zu den neun Schlüsselstellen des Klimawandels. In diesen Bereichen könnten (2.Konjunktiv!) schon kleine Veränderungen riesige Auswirkungen haben – die Systeme könnten (3.Konjunktiv!) leicht kippen, schreiben der Leiter des Potsdam-Instituts für Klimafolgenforschung, Hans Joachim Schellnhuber, sein Mitarbeiter Stefan Rahmstorf und britische Wissenschaftler in den "Proceedings" der US-Akademie der Wissenschaften (PNAS, online vorab veröffentlicht). In ihrem Artikel berücksichtigten die Wissenschaftler die Ergebnisse eines Workshops mit 36 führenden Klimaforschern sowie eine Befragung von 52 Experten. Zudem werteten sie die bestehende wissenschaftliche Literatur aus. Sie einigten sich auf neun sogenannte “Kipp-Elemente“, die ihrer Ansicht nach in der Klimapolitik besonders berücksichtigt werden sollten (4.Konjunktiv!). Als besonders anfällige Kippelemente benannten die Forscher den Grönländischen Eisschild und das arktische Meereis. Wenn (1. KonditionalKonstruktion des Ortes und der Zeit!) das arktische Meereis schmilzt, kommt darunter die dunklere Wasseroberfläche hervor. Da sie den Forschern zufolge mehr Sonnenstrahlen aufnehmen würde (5.Konjunktiv!) als weiße Eisflächen, würde (6.Konjunktiv!) die Erwärmung dadurch verstärkt. Das übrige Eis schmölze (6.Konjunktiv!) dann schneller. Die kritische Grenze liegt bei 0,5 bis zwei Grad (…dürfen es auch ein paar Grad mehr oder weniger sein?) Celsius Erwärmung, sodass die Arktis bereits in wenigen Jahrzehnten im Sommer eisfrei sein könnte (7.Konjunktiv!). Meeresanstieg um sieben Meter möglich (8.Konjunktiv!) (dürfen es auch ein paar Meter mehr oder weniger sein?). Die Klimaforscher glauben (…bisher dachte ich immer, Religion "glauben" und Wissenschaft "wissen" seien unterschiedliche Dinge??), dass schmelzende Gletscher beim Grönländischen Eisschild zunächst den Rand des Schildes abtragen, was zu weiterer Erwärmung und Eisverlust führen würde (9.Konjunktiv!). Wenn (2. Konditional-Konstruktion des Ortes und der Zeit!) die Temperatur dort um mehr als drei Grad Celsius anstiege (10.Konjunktiv!), könnte (11.Konjunktiv!) der Eisschild bereits innerhalb von 300 Jahren abschmelzen und der Meeresspiegel um sieben Meter steigen. Auch der Westantarktische Eisschild könnte (12.Konjunktiv!) in dieser Zeit abtauen, dessen Kipppunkt liege (13.Konjunktiv!) bei einer Erwärmung der Region von fünf bis acht (!!!) Grad, heißt es in dem Artikel der Klimaexperten(!!!). Zu den neun Schlüsselstellen des Klimawandels zählen auch die Borealwälder, die sich direkt südlich des Polarkreises vor allem auf russischem und kanadischem Gebiet als grüner Gürtel um die nördliche Hemisphäre legen. Sie werden nach Forscheransicht bei drei bis fünf Grad Erwärmung durch Trockenheit und Hitze im Sommer sowie Krankheiten innerhalb von 50 Jahren zu einem großen Teil absterben. Sie machen rund ein Drittel des weltweiten Waldbestandes aus. Gefährdet ist auch der Amazonas-Regenwald. Er werde durch Abholzung und Erwärmung derart geschädigt, dass er nach Modellaussagen in dieser Zeitspanne ebenfalls großflächig zerstört sein könnte (14. Konjunktiv!). Für die Sahara, die Sahelzone und die Region südlich davon sei noch unklar (erstaunlich, daß bei solchen Experten noch etwas unklar ist!!??) , ob sie infolge der Klimaverschiebungen trockener oder feuchter

werden als bisher. Als weitere Kippelemente benannten Schellnhuber und seine Kollegen das Klimaphänomen El Niño, den indischen Sommermonsun und den großen Wasserkreislauf im Atlantik, die sogenannte thermohaline Atlantikzirkulation. Kursive Anmerkungen von K.E. Puls Dipl. Meteorologe EIKE

Globaltemperatur zu hoch? ( (II)) Weltbekannte Klimawissenschaftler äußern sich zum ‚Satelliten-Gate’ Skandal! Das Programm der USA zur Überwachung der Umwelt durch Satelliten ist erschüttert. Die US–Regierung gibt zu, dass Satellitensensoren, die die globale Erwärmung messen, zunehmend geschädigt sind – die Temperaturwerte könnten lokal um 5° bis 8 °C falsch sein In dem in Anlehnung an frühere Begriffe einer immer mehr eskalierenden Reihe ‚Satellite-Gate’ genannten Skandal gibt es immer mehr Beweise, dass NOAA über diese Fehler seit Jahren Bescheid wusste. Weltbekannte Klimawissenschaftler und sogar frühere Berichte der Regierung nennen Unterfinanzierung und Misswirtschaft als Auslöser für die immer steiler werdende Spirale der katastrophal schlechten Satellitendaten. Grundlegende Fehler bei fünf Satelliten unterminieren die globalen Daten. Am meisten verstört die Tatsache, dass erst die Veröffentlichung meines Artikels in der vergangenen Woche die Behörden dazu gebracht hat, den fehlerhaften Satelliten NOAA-16 außer Betrieb zu nehmen. Aber worauf Dr. John Christy hinweist, das reale ‚Satelliten-Gate’ gilt nicht nur für einen Satelliten. Der Skandal ist viel verbreiteter mit vergleichbaren Fehlern im gesamten Netzwerk; der Skandal besteht auch darin, dass es eines Tipps aus der Öffentlichkeit und der weithin ausgestrahlten Sendung meines Artikels bedurfte, bevor eine der herausfordernden Müllbehälter, NOAA-16, abgeschaltet wurde. Leser, die die Details verpasst haben, als die sensationelle Geschichte zum ersten Mal ruchbar wurde, können hier nachlesen: Climatedepot.com. Der oberste Programmadministrator bei NOAA, Chuck Pistis, versuchte zunächst unaufrichtig, meinen Bericht zu diskreditieren und die Angelegenheit mit Desinformationen reinzuwaschen. Tatsächlich könnten wir einen rauchenden Colt haben, wenn wir die jüngsten Verlautbarungen mit den falschen Daten des satellite’s AVHRR Subsystem Summary [etwa: Zusammenstellung der AVHRR–Daten des Satelliten] vergleichen. [AVHRR = Advanced Very High Resolution

Radiometer = hochauflösende Fernerkundung mittels Radar]. Die offizielle Zusammenstellung enthält keinerlei Hinweise über irgendeine ‚Sensorverschlechterung’ (‘sensor degradation’) seit dem Start des Satelliten im September 2000. Und doch, wie ich von Spitzenklimawissenschaftlern zuverlässig informiert wurde, wurden NOAA diese Fehler schon vor Jahren mitgeteilt. Trotzdem ließ die US–Agentur weiterhin die fehlerhaften Daten zahlreichen internationalen Institutionen zukommen, ohne darauf hinzuweisen, dass die Satellitensensoren “verschlechtert” worden waren und deren Daten unzuverlässig waren, um die Klimaänderung zu untersuchen. NOAA-16 wurde als ein Satellit im Polarorbit mit Instrumenten und Sensoren für AMSU [siehe Link], AVHRR und High Resolution Infrared Radiation Sounder (HIRS) ausgerüstet. Letzte Woche hat jemand aus der Öffentlichkeit das katastrophale Scheitern dieser Instrumente entdeckt. Dr. John Christy lenkte meine Aufmerksamkeit auf spezielle begleitende Fehler, die er entdeckt und vor Jahren dem AMSU mitgeteilt hatte.

Befürchtet NOAA jetzt eine Flut internationaler juristischer Klagen? Der ausrangierte Satellit war ununterbrochen in Betrieb, bis er kurz nach Erscheinen meines Artikels (am 10. August 2010) vom Netz genommen wurde. In dem Artikel habe ich in vollem Umfang dargelegt, wie ernsthaft fehlerhaft die Sensoren waren. Die automatischen Messungen waren durchsetzt mit Hunderten, wenn nicht Tausenden falscher und absurd hohen Temperaturmessungen, einige davon so hoch wie 612°F (der Siedepunkt des Wassers liegt bei 212°F). Wir wissen jetzt, dass NOAA mindestens seit 2006 über diese hanebüchenen Anomalien im Bilde war, aber nie darauf hingewiesen hat (siehe unten). Besorglicherweise wurde von NOAA nicht bekannt gemacht, wie viele Nutzer der Daten (hauptsächlich international tätige Meteorologen und Klimaforscher) von den falschen Daten betroffen waren. Aber wir wissen, dass die automatischen Messwerte weltweit verbreitet worden waren und dass deren Werte der Land- und Wassertemperatur von Klimawissenschaftlern in ihren Modellen verwendet wurden, seit der Satellit im September 2000 gestartet wurde. Als Konsequenz und ohne volle Offenlegung durch NOAA muss befürchtet werden, dass unzählige wissenschaftliche Studien über global steigende Temperaturen jetzt nur noch Makulatur sind. Man kann darüber spekulieren, warum NOAA so zögerlich war und so gravierende Fehler so lange nicht zugegeben hat. Vielleicht aus Furcht vor einer Fülle juristischer Klagen von den Nutzern der Daten, hauptsächlich nationale Regierungen und Forschungsinstitute an Universitäten. Nur aufgrund dieser Daten stimmen die meisten Wissenschaftler darin überein, dass sich unser Planet während des zwanzigsten Jahrhunderts um 0,6 K erwärmt hat (mit einer Fehlergrenze von 0,5 K – aber diese Fehlergrenze sieht jetzt völlig bedeutungslos aus). Aus der Analyse der schwindlerischen Temperaturwerte, bevor NOAA diese aus

dem Netz nahm, könnte sich ergeben, dass fast alle falschen Messungen der Temperatur weit außerhalb der erwarteten Mittelwerte liegen – viele durch einen Faktor vier oder fünf – fast keiner dieser Werte lag niedriger als das Mittel.

Die US–Regierung hat das zunehmende Scheitern im Rahmen von Satellite-Gate vorausgesehen. Aber es war nicht nur eine Handvoll skeptischer Klimatologen, die Alarm geschlagen haben. Die National Academy of Sciences ist in ihrem 2007 erschienenen, 455 Seiten starken Bericht zu dem Schluss gekommen, dass wegen der Verschlechterung (degradation) im Satellitennetzwerk der USA die Möglichkeiten der Nation, Klima und Unwetter zu überwachen, in „großer Gefahr“ sind. Zufällig in der gleichen Woche, in der mein Artikel zur Abschaltung von NOAA-16 geführt hatte, hat Susan Bohan ihren exzellenten Artikel hier veröffentlicht, in dem sie die breiter angelegten Systemfehler in größerem Rahmen innerhalb des Satellitennetzwerkes bloß stellte. Neben vielen anderen katastrophalen Fehlern berichtet Bohan: „Der Satellit Landsat 7 ist defekt. Und das ist symptomatisch für das angeschlagene Programm der Nation zur satellitengestützten Überwachung der Umwelt“. Die Bezeichnung ‚Satelligate’ wurde von dem Blog CO2insanity.com geprägt, nachdem man auf das Problem aufmerksam gemacht worden war.

Mindestens fünf Satelliten zu Messungen des Klimas sind betroffen Dummerweise basierte Bohans Artikel nicht auf irgendwelchen unbegründeten, von ‚big oil’ finanzierten Desinformationen von Seiten der Skeptiker, sowieso ein immer mehr verblassender Mythos, sondern auf einem Bericht des Accountability Office der US–Regierung (GAO). GAO räumte ein, dass neun neue Klimamessinstrumente in der jüngsten Satellitengeneration bereits 2006 außer Betrieb genommen oder ihre Kapazitäten begrenzt wurden. GAO ist die ausführende Institution des US–Kongresses. Als Konsequenz wurden mindestens fünf dieser Satellitenprogramme als entweder abgeschaltet oder als ernsthaft betroffen identifiziert: Landsat 7 (Gegenwärtig im Orbit) ist defekt mit der Folge von Datenlücken. Wissenschaftler bekommen nicht alle Informationen, die sie bekommen sollten. NPOESS (National Polar-orbiting Operational Environment Satellite) wird keine Sensoren haben, die den Energieausstoß der Sonne auf den 2. und 4. Satelliten misst. Bei dem GOES-R (Geostationary Operational Environmental Satellite-R Series) wurden 14 Sensoren abgeschaltet. Daten über die Höhe der Wolkenuntergrenze, die Ozonschicht, die Farbe und Turbulenz des Ozeans, Wolkenbildung, Schneebedeckung etc. wurden effektiv neutralisiert. Kein Sensor [zu Messungen] der Bewegung von Treibhausgasen und Verschmutzungen. Kein Sensor, um Änderungen der Temperatur auf der Erde

mit der Zeit zu erfassen. (NOAA hat sich nicht einmal dazu herabgelassen zu versuchen, Zuwendungen dafür zu erhalten, um die eliminierten Sensoren zu halten!). Der Sensor, der messen sollte, wie die Temperatur der Erde auf Änderungen der Solarstrahlung reagiert, wurde im Juni 2010 von der Regierung Obama abgeschaltet. Vielleicht ist es kein Zufall, dass die gegenwärtige Vorsitzende von NOAA, Dr. Jane Lubchenco, handverlesen von Präsident Obama, erklärt hat, ihre Agentur würde ihre Rolle bei der Entwicklung einer grünen Wirtschaft spielen. Ungeachtet der Ausgaben der US–Regierung in Höhe von über 80 Milliarden Dollar für die Klimaforschung hat daher das Scheitern der Zuteilung ausreichender Mittel für das Satellitenprogramm zu einer ernsthaften Vertrauenskrise des gesamten Datensatzes geführt (Hinweis: Die Kosten für einen typischen NOAA–Satelliten belaufen sich auf etwa 11 Millionen Dollar, und das Netzwerk holt diese Millionen durch den weltweiten Verkauf der Daten für die US–Regierung wieder herein).

Beweise von Klimaexperten deuten auf Verschwörung zum Betrug Dr. Roy Spencer kommentierte: „Was auch immer mit NOAA-16 (oder der Software) passiert ist – offensichtlich waren GEWALTIGE Fehler enthalten. Wir hatten immer Probleme mit AMSU von NOAA-16 und haben [dessen Daten] vor langer Zeit fallen gelassen. Sie hatten solche Verzerrungen, dass sie für die Klimaüberwachung unbrauchbar waren“. Dr. Christy benannte Fehler ausschließlich für die AMSU–Instrumentierung und nicht Probleme mit dem AVHRR–System. Er riet mir: „Wir haben 2006 eine Menge Zeit verbracht, um zu versuchen, mit den Daten von NOAA-16 zu arbeiten, aber die Fehler waren so unberechenbar, dass wir am Ende nicht anders konnten, als sie als eine unserer Grundlagen unseres Datensatzes zu eliminieren“. Wie viele Analysten schon seit Langem angemerkt hatten, gehen diese Fehler noch weit über die schockierend absurden Messwerte von 604°F, gemessen in Egg Harbor im US–Bundesstaat Wisconsin, hinaus. Dr. Timothy Ball, Klimaberater des Militärs und Hauptautor eines neuen Buches, in dem die Treibhausgastheorie verworfen wird, meint: „Bestenfalls deutet der gesamte Vorgang auf große Inkompetenz, schlimmstenfalls auf einen absichtlichen Versuch, eine Temperaturaufzeichnung zu konstruieren, der zum politischen Tagesgeschäft passt“.

Die Mainstream–Medien sind blind für einen neuen ‘Gate’–Skandal 2006 haben Christy und Spencer versucht, eine technische Analyse der NOAA-16 AMSU zu vervollständigen, aber Christy legte offen, dass es „sehr ermüdend war, und dass wir eine Menge Wege verfolgten, die sich alle als Sackgassen herausstellten“. Solche erschreckenden Fakten erscheinen einfach nicht in den Nachrichten der Mainstream–Medien, und während der ganzen Zeit ringen die Forscher vergeblich

darum, Schritt zu halten mit den immer größer werdenden Datenlücken wegen der fortgesetzten Abschaltung von Sensoren. Zum Beispiel, jeden Monat arbeitet Dr. Christy mit Dr. Spencer daran, das sich ständig ändernde Patchwork der Datensätze der globalen Temperatur zusammen zu stückeln, das von ganzen elf Instrumenten auf elf verschiedenen Satelliten seit 1979 geliefert wird. Bei einem so langen Zeitraum war vermutet worden, dass kosmische Strahlen oder Partikel die hoch empfindlichen Geräte an Bord der Satelliten [in ihrer Funktion] beeinträchtigt haben könnten. Spencer veröffentlicht seine Ergebnisse auf seinem Blog, während Christy seinen umfassenderen Bericht der Satellitenprobleme hier veröffentlicht.

Werden systematische Messfehler sogar noch mehr Leben kosten? Der wegen seiner in der Welt führenden Wettervorhersagen international respektierte Piers Corbyn der Website Weatheraction.com ist ein anderer Experte, der sich über die skandalösen Ausfälle im Satellitennetzwerk beklagt. Piers tobte im Blog der Climate Realists: „Diese Enthüllung bestätigt einmal mehr, was ich und Tom Harris dem Fernsehsender Russia Today am 5. Februar 2010 gesagt haben, nämlich dass WIR EINFACH NICHT verlässlich WISSEN, wie die Temperaturen der Welt sind und wie sie sich im letzten Jahrzehnt oder Jahrhundert verändert haben“. Corbyn hat die westrussische Hitzewelle dieses Sommers korrekt vorhergesagt, ebenso wie eine generelle Zunahme SEHR extremer Ereignisse (bestätigt durch die horrenden Überschwemmungen in Pakistan und China sowie die „Superkälte“ in Teilen der Südhalbkugel), und zwar Wochen und Monate im Voraus.

Eine wachsende Liste von Ausfällen der satellitengestützten Erfassung der globalen Erwärmung Satelligate weist auf noch eine andere, wütend machende Praxis der Regierung hin, frisierte Zahlen der globalen Erwärmung zu verbreiten. Trotz der jahrelangen drängenden Forderungen von Wissenschaftlern auf allen Seiten der Debatte zur globalen Erwärmung nach mehr Transparenz und besserem Zugang zu den Daten, haben eifrige Erfüllungsgehilfen innerhalb der NASA und der CRU in Britannien solche Anfragen stets abgelehnt und ungesetzlicherweise Forderungen des Freedom of Information Act FOIA [etwa: Gesetz zum freien Zugang zu Informationen] verletzt. Wie schon bei WattsupWithThat erwähnt, sind solche Fehler und Defizite zusammen mit glattem Datenbetrug lange Zeit unter den Teppich gekehrt worden. Damit wurden noch mehr Leben in Gefahr gebracht. Tatsächlich hat sich das öffentliche Vertrauen in die Verlässlichkeit offizieller Warnungen vor der Apokalypse durch die Lieferanten der von NOAA hinausposaunten gefälschten Daten in zunehmenden Zynismus gewandelt. Eine wachsende Zahl von Steuerzahlern verleiht ihrer Opposition zu der eilfertigen Einführung immer höherer Steuern Ausdruck, die den Lebensstandard der Ersten

Welt beeinträchtigen, vor allem, weil sie eingeführt werden sollen, bevor die wirklichen Tatsachen feststehen.

Fragen, auf die NOAA die Antworten verweigert Angesichts der Tatsache, dass NOAA offiziell lediglich zugegeben hat, “Bilder” aus ihren Archiven nur zurückgezogen zu haben, ohne all die falschen Daten zu erwähnen, die ebenfalls auf den Müll geworfen wurden, habe ich die folgenden und immer noch unbeantworteten Fragen an Dr. Jane Lubchenco von NOAA gestellt: Welche Schritte haben Sie unternommen, um Umfang und Ausmaß dieser Datenfehler zu ermitteln, und was wird unternommen, dass sich so etwas in Zukunft nicht noch einmal ereignet? Haben Sie herausgefunden, ob diese Temperaturfehler andere Daten und Ergebnisse beeinträchtigen; im Besonderen, unterminieren diese Vorkommnisse in irgendeiner Weise die Glaubwürdigkeit offizieller Verlautbarungen der Regierung, die schon über Klimaänderungen gemacht wurden, und falls ja, wie stark? Bis Lubchenco darauf eindeutige Antworten gibt, fürchte ich, dass hier ein neuer ‘Phil Jones’ erzeugt wird. Ohne volle Transparenz und eindeutige Antworten wird der endlose Medienhype über die Gefahren der sogenannten ‚Treibhausgastheorie’ das bleiben was er ist – ein Hype. John O´Sullivan; Montag, 16. August 2010 Original in Canada Free Press hier Übersetzt von Chris Frey. Alle Einschübe in eckigen Klammern vom Übersetzer. Fett Hervorhebungen EIKE Redaktion; Sämtliche anderen Hervorhebungen im Original.

Globaltemperatur zu hoch? (I) NOAA (amerik. Wetterbehörde) bestätigt:Globale Erwärmung der Dekade wg. defektem Satelliten zweifelhaft! Die US–Regierung bestätigt die “Abschwächung” der vom Satellit gemessenen Temperaturdaten. In einer Schockreaktion wurden alle Daten offline gesetzt. Die Temperaturwerte der globalen Erwärmung könnten lokal 5 bis 8 °C zu hoch sein. Der Fehler wurde nach einem Hinweis eines anonymen Teilnehmers am

klimaskeptischen Blog Climate Change Fraud (siehe Originalartikel) entdeckt (am 9. August 2010). Mitten im Zentrum dieser Kontroverse steht die vom Steuerzahler finanzierte National Oceanic and Atmospheric Administration (NOAA, [der amerikanische Wetterdienst, A. d. Übers]). Der Koordinator von NOAA Chuck Pistis hat jetzt bestätigt, dass die sich rasch herum sprechende Geschichte auf dem angesehenen klimaskeptischen Blog wahr ist. Jedoch hat Chuck Pistis, der auch als Sprecher von NOAA fungiert, es abgelehnt zu sagen, wie lange dieser Fehler unentdeckt wirken konnte. Auch würde sich der gebeutelte Sprecher nicht in Spekulationen darüber verlieren, wie groß der Schaden für die Glaubwürdigkeit einer ganzen Dekade von Temperaturmessungen des problematischen Satelliten ‚NOAA-16‘ sei. ‚NOAA-16‘ wurde im September 2000 gestartet und wird derzeit operationell genutzt. Sein sonnensynchroner Orbit verläuft 849 km über der Erde und dauert 102 Minuten. Dabei ermittelt er automatisch Temperaturdaten der Erdoberfläche, die genauso automatisch in Klimamodelle einfließen. NOAA hat von einer ganzen Folge rekordwarmer Temperaturen während der letzten Jahre berichtet, die auf Satellitenmessungen beruhten, aber diese könnten jetzt alle Makulatur sein. Der weltbekannte kanadische Klimatologe Dr. Timothy Ball erklärte nach einem Expertenblick auf die schockierenden Ergebnisse: „Bestenfalls deutet dieser ganze Vorfall auf große Inkompetenz, im schlimmsten Fall auf einen verzweifelten Versuch, Temperaturrekorde zu konstruieren, die zum politischen Tagesgeschäft passen“. Die großen, physikalisch nicht möglichen Fluktuationen der Temperatur der Großen Seen [Die Seenplatte zwischen USA und Kanada um Chicago, A. d. Übers.] Wissenschaftler, die die Satellitendaten der Großen Seen auswerteten, waren die ersten, die Alarm schlugen, nachdem ihnen die völlig verzerrten Daten durch eine ganze Reihe unmöglich hoher Temperaturwerte aufgefallen waren. NOAA räumt ein, dass die maschinell aufbereiteten Daten nicht ununterbrochen aufgezeichnet worden waren, so dass die Unstimmigkeiten in der Masse der anderen automatisierten Daten verborgen geblieben waren. In einem Beispiel, dass nach meinem Artikel rasch von NOAA entfernt wurde, zeigten die Daten von Juni und Juli für den Michigan–See völlig absurde Temperaturwerte, die niedrige bis mittlere Hunderterwerte Fahrenheit [ca. 35 bis 40°C] zeigten – und einige Gebiete des [US-Bundesstaates] Wisconsin mit Werten bis 612 F [weit über 100°C]. Mit der jetzt ans Licht kommenden immer größeren Anzahl solcher Fehler hat die diskreditierte NOAA den gesamten Datensatz der öffentlichen Einsicht entzogen. Aber dieses Entfernen ist nicht das Gleiche wie die Bewertung der Implikationen dieses gewaltigen statistischen Debakels. Die Reinwaschung der NOAA scheitert an einem Tag Noaa–Sprecher Chuck Pistis begann sofort mit der Reinwaschung, nachdem er

erstmals von der Geschichte in der am schwersten betroffenen Region, Egg Harbor, gehört hatte, in der sämtliche Instrumente schnell zum Kochen kommen sollten Dienstag Vormittag erklärte Pistis hochnäsig: „Ich habe in den Archiven geschaut und habe kein Abbild zu diesem Zeitpunkt gefunden. Außerdem posten wir normalerweise nicht Bilder mit viel Bewölkung, geschweige denn mit Temperaturen. Dieses Abbild scheint durch jemanden zur allgemeinen Unterhaltung bearbeitet worden zu sein“. Aber später am gleichen Tag warfen Pistis und seine bemitleidenswerten Kollegen das Handtuch und stellten sich dem übermächtigen Fauxpas. Pistis gab zu: „Ich habe eben noch einmal (sic) das Abbild betrachtet. UND ES IST in meinem Archiv. Ich weiß nicht, warum die Temperaturwerte so falsch (sic) sind. Es scheint eine Fehlfunktion des Satelliten zu sein. WIR haben Tausende Bilder gepostet (sic) seit der Einführung unseres Coatwatch service (sic) [vermutl. so etwas wie ein ‚umfassender Überblick‘. A. d. Übers.] im Jahre 1994. Ich habe noch nie ein Bild wie dieses gesehen“. Aber der Sprecher der Michigan Sea Grant Extension, einem Partner von ‚Coatwatch’, der zusammen mit NOAA durch die herausfordernden Daten ging, gestand danach ein, dass die hastig entfernten Webseiten tatsächlich Dutzende von Temperaturaufzeichnungen gezeigt hatten, die drei bis vier Mal höher lagen als nach der Jahreszeit üblich. NOAA lehnte es ab, irgendeinen Kommentar dazu abzugeben, ob eine solche Panne die Mittelwerte im gesamten Nordosten der USA um etwa 10 bis 15 Fahrenheit [5 bis 8 K] nach oben getrieben haben könnte, weil der Fehler über längere Zeiträume unentdeckt geblieben war. Um einiges zerknirschter machte sich Pistis später an die Schadensbegrenzung und versuchte es mit Entschuldigungen: „Wir müssen bessere Arbeit bei der Kontrolle leisten, was in den Archiven landet oder gepostet wird. ‚Coastwatch‘ ist komplett automatisiert, so dass man leicht einsehen kann, dass so etwas durchrutschen konnte“. In seiner Verlautbarung stimmte Pistis zu, die Satellitendaten von NOAA “herabzustufen”. Und weiter, dass die Regierung „noch mehr in dieses Desaster schauen“ muss. Tatsächlich findet man auf der Michigan Sea Grant Site die folgende offizielle Mitteilung: “BEMERKUNG”: Wegen eines fehlerhaften Sensors im Satelliten, dessen

Werte für diese Kartendarstellung genutzt wurden, haben einige Bilder extrem hohe und niedrige Temperaturdaten gezeigt. Bitte betrachten Sie diese Daten als nicht realistisch. Künftige Bilder werden diese Daten nicht mehr enthalten, und Bilder, die mit Daten des fehlerhaften Sensors erstellt wurden, wurden und werden aus dem Bilderarchiv entfernt“. Schieb es auf die Wolken, nicht auf uns, meint NOAA NOAA erklärte weiter, dass die Bewölkung die Satellitendaten beeinflussen und sie anfällig für Falschmessungen machen könnte. Aber Pistis konnte nicht erklären, wie viel Bewölkung signifikant wäre oder an welchem Punkt die Messungen für die Klimamodellierung unbrauchbar werden. Wie es ein verärgerter Beobachter ausdrückt: „Was ist mit dunstigen Tagen? Was an Tagen mit dünner Bewölkung? Was an Tagen mit teilweise bewölktem Himmel? Selbst an heißen, klaren Tagen sorgt die Verdunstung für eine substantielle Menge Wasserdampf in der Atmosphäre, besonders über Gewässern. Wie können diese Satellitendaten nur halbwegs brauchbar sein, wenn der Satellit nicht durch die Wolken ‚sehen‘ kann?“ Ein führender Klimatologe verurteilt den Mangel von echter Sorgfalt Die ernsten Konsequenzen dieser Vorkommnisse waren für Dr. Ball nicht von ungefähr. Er erklärte, dass diese Zahlen mit ungewöhnlich hohen oder niedrigen Werten von der Regierung für politische Zwecke ausgebeutet wurden, bereits jetzt unter den Rekorden gelistet werden und in Reportagen durch den gesamten medialen Blätterwald der Mainstream–Medien gingen, was ein weithin gewünschtes Ziel war. Der Klimatologe, der das Militär in Klimafragen berät, bedauerte, dass solche fehlerhaften Datensätze „ausnahmslos unbereinigt bleiben. Der gescheiterte Versuch zu belegen, wie oft die Temperatur an der Wolkenoberfläche ‚sehr nahe‘ den Werten der Wassertemperatur lag, ist unakzeptabel. Wenn die Genauigkeit der Daten fraglich ist, sollten sie nicht genutzt werden. Ich würde sagen, dass das nach meinem Wissen über Inversionen sehr selten ist, besonders über Wasser“. Wie viele andere Wettersatelliten wurden ebenfalls „herabgestuft”? Eine Schlüsselangelegenheit für die Regierung war, dass sie es ablehnte zu sagen, wie viele andere Satelliten ebenfalls herabgestuft werden könnten. ‚NOAA-16‘ ist kein alter Satellit – also warum braucht es jemanden aus der Öffentlichkeit, um eine so große Fehlerhaftigkeit zu finden? Klimaprofessor Tim Ball wies darauf hin, dass er dieses systematische Scheitern vorhergesehen hat und warnt die Öffentlichkeit, dass sie keinen Rückzug und auch kein Ende der düsteren, den Untergang beschreienden

Klimaprognosen erwarten sollte: „Seit McIntyre Hansen und NASA GISS mit den falschen Daten aus den USA erwischte, habe ich noch nie gesehen, dass irgendeine Bereinigung der Daten der Welt stattgefunden hat, die aber nach den Änderungen der Aufzeichnungen in den USA unabdingbar sind. Die Aufzeichnungen aus den USA dominieren diejenigen speziell in den kritischen Mittleren Breiten. Sie so zu verändern, dass es von den neun wärmsten Jahren in den Neunziger Jahren zu vier davon in den Dreißiger Jahren des vorigen Jahrhunderts kommt, ist eine sehr signifikante Veränderung und muss die globalen Mittelwerte [der Temperatur] beeinflussen“. An jedem Tag gibt es neue Entdeckungen von großen Fehlern und Auslassungen. Ein kluger Kommentator auf www.climatechangefraud.com stellte fest: „Es ist allgemein bekannt, dass sich das Land schneller erwärmt als das Wasser, das sich auch langsamer abkühlt. Jedoch haben wir in den Zahlen von NOAA mindestens zwei Datensätze gefunden , die das Gegenteil dieser bekannten physikalischen Tatsache aussagen.“ Der geschickte Kommentator fügte hinzu: „Zwei Punkte, deren Daten fraglich sind, liegen in Charlevoix, wo die Temperatur bei 43,5° [F? C? Im Original stehen nur diese und die folgenden Zahlen. A. d. Übers.] liegen soll – während in der Umgebung (± 30 Meilen) 59,2° herrschen sollen; und in der Bucht östlich der Halbinsel von Leland, die mit 37,2° gelistet wird. Diese Werte wurden vermutlich um 18:38 Ortszeit gewonnen. Beide stammen aus Gebieten mit größeren Lücken in der Bewölkung. Fehlende weitere präzise Angaben von NOAA über diese sensationelle Geschichte überlassen es der Öffentlichkeit, weiter zu spekulieren und ‚bürgerlichen Wissenschaftlern‘ [‚citizen scientists‘], zu bestimmen, ob Datensätze über zehn oder mehr Jahre von Satelliten wie NOAA-16 unzuverässig und wertlos sind. John O´Sullivan für Climate Fraud 11 August 2010 Originalartikel: John O’Sullivan ist erfahrener Analyst, Autor und Journalist. Als akkreditierter Akademiker lehrte er über zwanzig Jahre lang an Schulen und Universitäten in Ostengland, bevor er in die USA übersiedelte. Als analytischer Kommentator hat er über 100 grundlegende Artikel weltweit verfasst. Übersetzt von Chris Frey. Alle Einschübe in eckigen Klammern vom Übersetzer. Fett Hervorhebungen EIKE Redaktion; Alle anderen Hervorhebungen einschl. runder Klammern im Original!

Die große russische Hitzewelle von 2010! Je länger und tödlicher die Hitzewelle in Russland wird, um so häufiger wird sie mit der anthropogenen globalen Erwärmung in Verbindung gebracht. Aber die Theorie der globalen Erwärmung kann nicht einmal ansatzweise erklären, warum es in Moskau in diesem Sommer so extrem heiß ist. Vieljährige Beobachtungen legen eine grundlegendere Ursache nahe – ein ungewöhnliches und (zumindest seit 1950) noch nicht dagewesenes Zusammentreffen mehrerer natürlicherweise vorkommender atmosphärischer Strömungsmuster, die zusammen zu der extremen Hitze geführt haben. Man füge noch hinzu Urbanisation, Raubbau in den Wäldern und vielleicht sogar ein wenig globale Erwärmung, dann erhält man eine Lage, die sonst „sehr heiß“ oder noch höher „ungewöhnlich heiß“ ist. Update: It’s Official: Russische Hitzewelle unabhängig vom Klimawandel Die treibende Kraft hinter der Hitzewelle des Jahres 2010 war ein stationäres Wettersystem, dass seit Mitte Juni mehr oder weniger fest über Westrussland lag. Wenn solche Systeme längere Zeit über einem bestimmten Gebiet festliegen, anstatt sich von West nach Ost zu verlagern, nennt man dies eine „Blockierung“. Die lange Schnee- und Kälteperiode in der Osthälfte der USA im letzten Winter wurde durch eine solche Blockierung verursacht [d. h. ein Hochdruckgebiet über den zentralen und westlichen Gebieten der USA, A. d. Übers.], so dass arktische Luft weit nach Süden wehen konnte und die Tiefdruckgebiete [in Verbindung mit milder Meeresluft] vor der Ostküste nach Norden zogen. Die Hitze in Russland ergab sich aus einem blockierenden Hochdruckgebiet über den Gebieten östlich von Moskau, was zu einer südlichen (warmen) Luftströmung, viel Sonnenschein und wenig Regen führte. Solche Blockierungen beschränken sich nicht auf das heutige Klima, sondern es gab sie schon immer. Sie sind eingebunden in die hemisphärischen mäandrierenden Höhenströmungen, wie sie im Climate Prediction Center CPC) des

nationalen Wetterdienstes [der USA] folgendermaßen beschrieben werden: „Es handelt sich um großräumige Luftdruck- und Zirkulationsanomalien, die weite geographische Gebiete überdecken.“ Die Beschreibung des CPC führt weiter aus: Solche Strömungsmuster zeichnen sich häufig durch wenige oder nur in sehr langen Zeiträumen erfolgende Änderungen aus. Obwohl diese Muster üblicherweise mehrere Wochen oder Monate dauern, können sie manchmal während mehrerer aufeinanderfolgender Jahre vorhanden sein. Auf diese Weise spielen sie eine bedeutende Rolle sowohl in der jährlichen als auch der dekadischen Variabilität der atmosphärischen Zirkulation… Alle Strömungsmuster sind ein natürlicherweise vorkommender Aspekt unseres chaotischen atmosphärischen Systems und reflektieren hauptsächlich [Vorgänge in] der inneren atmosphärischen Dynamik… Strömungsmuster reflektieren außerdem großräumige Änderungen hemisphärischer Wellen und Jet–Streams; sie beeinflussen die Temperatur, Regenmengen, die Zugbahn von Tiefdruckgebieten sowie Lage und Intensität von Jet-Streams über weiten Gebieten. Daher sind sie oft verantwortlich für gleichzeitige anomale Wetterbedingungen über scheinbar große Distanzen. Das CPC nennt und bearbeitet etwa 10 verschiedene Lagen dieser Art mit Indizes, die jeweils verschiedene Muster der atmosphärischen Zirkulation bezeichnen, und beschreibt damit den Einfluss auf die Temperatur und Niederschlag am Boden. Das CPC hat eine historische Abfolge dieser Blockierungsindizes seit Januar 1950 erstellt und diese bis heute weitergeführt. Mehrere dieser Strömungsmuster beschreiben die Temperatur[verhältnisse] im Großraum des westlichen Russlands und werden als „West Pacific Pattern“ (WP), „Polar/Eurasia Pattern“ (POL) und „East Atlantic/Western Russia Pattern“ (EA/WR) bezeichnet. Abbildung 1 zeigt das Muster für Juli, wenn sich alle drei genannten Muster in ihrem positiven Status befinden. Haben sie dagegen ihren negativen Status, sind die Anomalien der Temperatur entgegengesetzt. Man beachte, dass sie alle drei „heiße Punkte“ (hot spots) in und um Westrussland haben. Die [Index]werte von WP, POL und EA/WR speziell für Juli betrugen -2,93, 1,7 und -1,55. Dies bedeutet, dass die Konfiguration jedes dieser Muster zu Temperaturwerten über den Normalwerten in Westrussland führt.

Abbildung 1. Verteilung der Temperaturanomalien in Verbindung mit dem positiven Status von drei Blockierungslagen, die Westrussland beeinflussen (Bilder des Climate Prdiction Center CDC). Abbildung 2 zeigt die beobachteten Anomalien der Temperatur am Boden im Juli einschließlich des großen roten Flecks sehr hoher Temperaturabweichungen über dem westlichen Russland – ein Ergebnis, das bei der Kombination dieser drei Lagen zu erwarten war.

Abbildung 2: Temperaturanomalien für Juli 2010

Abbildung 3. Die Kombination der Indexwerte vom Typ WP, POL und EA/WR für den Monat Juli der Jahre 1950 bis 2010 (Daten vom CDC). Hierzu ist verschiedenes zu bemerken: 1) Der kombinierte Indexwert im Juli 2010 ist der höchste seit 1950 – fast 50% höher als der zweithöchste Wert im Jahre 1952.

2) Der kombinierte Index war seit 1981 überwiegend positiv und meist negativ von 1955 bis 1980. Dies zeigt einen allgemeinen positiven Trend seit 1950. 3) Der Wert von 2010 ist etwa dreimal höher als der zu erwartende Wert, der nur auf dem Trend basiert. Steckt die anthropogene globale Erwärmung hinter diesem Verlauf? Es ist schwer, das sicher zu sagen, aber eines ist gewiss: falls die globale Erwärmung hier eine Rolle spielt (vielleicht durch den Trendverlauf), so ist der Einfluss ziemlich schwach. Abbildung 4 zeigt eine Karte mit den Anomalien der Temperatur im Juli 1936 – einem anderen sehr heißen Monat im westlichen Russland. Man beachte, wie sehr dieses Muster der Abweichungen denen in diesem Juli 2010 gleicht (Abbildung 2). Dies legt die Vermutung nahe, dass der kombinierte Indexwert damals ähnlich hoch lag wie in diesem Jahr – wir wissen nicht, wie hoch, weil die Reihe des CPC nur bis 1950 zurückreicht. Klar ist aber, dass es in Moskau und Westrussland auch ohne unsere Hilfe sehr heiß werden kann.

Abbildung 4. Anomalien der Temperatur am Boden (°C) im Juli 1936 (Bild vom Goddard Institute for Space Studies). Das Fehlen von Daten vor 1950 begrenzt die Möglichkeit, die Verhältnisse im Jahre 2010 in einen längeren historischen Zusammenhang zu bringen. Würde der zunehmende Trend in Abbildung 3 genauso aussehen, falls wir die bekannte Warmperiode der Dreißiger Jahre mit einbeziehen könnten? Wie hoch war der Indexwert im Juli 1936? Man weiß es nicht. Weil das so ist, ist es schwierig zu bestimmen, welche Rolle andere Faktoren [in diesem Jahr] gespielt haben, wie z. B. Urbanisation, Rauch oder die globale Erwärmung, die diesen Sommer zu einem Rekordsommer in Westrussland gemacht haben. Für sich genommen würde der Sommer 2010 in die Annalen als ein extrem heißer Sommer in Moskau eingegangen sein, mit oder ohne irgendeinen Einfluss durch

zunehmende Konzentrationen von Treibhausgasen. Haben unsere [vom Menschen vorgenommene] Veränderungen der Umwelt, lokal, regional oder global einen Beitrag geleistet zusätzlich zu dem, was die Natur bereit hält? Möglicherweise? Wahrscheinlich? Die Beurteilung davon liegt noch weit in der Zukunft. Weiterführende Links: http://www.worldclimatereport.com/index.php/2010/08/12/the-great-russian-heat -wave-of-2010/ Häufig wird sie mit der anthropogenen globalen Erwärmung in Verbindung gebracht. Urbanisation, Raubbau in den Wäldern Autoren: Redaktion World Climate Report; Staff Chief Editor: Patrick J. Michaels Contributing Editor: Robert C. Balling, Jr. Contributing Editor: Robert E. Davis Übersetzt von Chris Frey EIKE. Kommentierende Bemerkungen des Übersetzers: Er ist beim Surfen auf die Tatsache gestoßen, dass die diesjährige Hitzewelle offenbar keineswegs ohne Präzedenzfall im vorigen Jahrhundert gewesen ist. Um dies zu verdeutlichen, wurde dieser Beitrag übersetzt! Schon die Herren Puls und Freuer hatten ja in entsprechenden Beiträgen darauf hingewiesen, wie gewöhnlich solche Wettervorgänge sind, wenngleich sie auch nicht in jedem Jahr und in dieser Ausprägung auftreten.

Paradigmen in der Klimaforschung! Die britische Fachzeitschrift Energy & Environment veröffentlicht derzeit eine Spezialausgabe zum Thema Paradigmen in der Klimaforschung. Zur Einführung hat Prof. Arthur Rörsch einen Gastbeitrag geschrieben. Wir veröffentlichen hier die deutsche Version und bitten interessierte englischkundige Leser, die in der Ausgabe veröffentlichten Beiträge zu diskutieren. Während der letzten Jahrzehnte wurde die sozialwissenschaftliche Infrastruktur der Klimatologie von Wissenschaftlern unter einem von den UN gesponserten Banner dominiert, dem Internationalen Weltklimarat [Intergovernmental Panel on Climatic Change IPCC]. Diese Wissenschaftler – und noch mehr ihre Regierungen – verkündeten als ‚wissenschaftlichen’ Konsens, dass der zunehmende Anteil von CO2 in der Atmosphäre erheblichen

Einfluss auf das globale, das heißt mittlere Klima hat. Dies war eine unveränderliche Wahrheit. Bei der Präsentation der letzten ‚Summary for Policymakers’ des IPCC (2007) wurde verkündet: „Die Wissenschaft ist vorbei [The Science is settled]“. Die Stimmen sehr bekannter Wissenschaftler, die diesem dominanten Paradigma aufgrund ihrer eigenen Forschungsergebnisse widersprachen (z. B. Lindzen, Spencer, Singer, Christy, McIntyre, Pielke, Khandakar), waren dagegen nicht so deutlich zu hören. Am wenigsten wurden sie von Regierungen gehört, die erwägen, den Gebrauch fossiler Brennstoffe zu reduzieren – was für viele von ihnen ein lobenswertes Ziel war. Zweifel am CO2–Paradigma des main stream erheben sich, weil es kaum einen Beweis aus direkten Beobachtungen gibt, die den von Computermodellen/ Experimenten konstruierten Rahmen bestätigen. Dies allein sollte in der wissenschaftlichen Welt ein ausreichender Grund sein, über andere Paradigmen nachzudenken. Das in diesem Papier beschriebene Paradigma könnte man das Wetter/Wasser–Paradigma nennen. Es hat seinen Ursprung in seit langem gültigen Erkenntnissen in der klassischen Klimatologie und Meteorologie. Es muss hervorgehoben werden, dass die beiden sich gegenüber stehenden Theorien [frameworks]: das CO2–Paradigma und das Wetterparadigma, zu völlig unterschiedlichen Entwicklungen der Variabilität des Klimas führen. Dies würde bedeuten, dass die Annäherung durch Reduktion der numerischen Modellannäherung in einen fundamentalen methodischen Irrtum münden könnte. Das Nachdenken über Alternativen zum vorherrschenden CO2–Paradigma ist daher für den wissenschaftlichen Fortschritt im Gebiet Klimatologie unabdingbar. Jedoch kann man bisher kein Anzeichen erkennen, dass die Protagonisten der vom IPCC erwarteten Gefährlichen Anthropogenen Globalen Erwärmung (AGW) gewillt sind, irgendeine Alternative zum CO2–Paradigma zu berücksichtigen. Weltweite wissenschaftliche Diskussionen zwischen Protagonisten und Antagonisten waren sehr begrenzt. Kein Kritiker des IPCC wird zur Teilnahme an offiziellen internationalen Tagungen eingeladen, obwohl sie ihre eigenen großen Konferenzen organisiert haben und Unterstützer des IPCC dazu eingeladen haben. Mit wenigen Ausnahmen wurden diese Einladungen nicht angenommen. Nichtsdestotrotz finden jedoch auf informativer Ebene, z. B. im Austausch von e-mails, weiterhin intensive Diskussionen über gegensätzliche Gedanken über die Grundprinzipien des Treibhauseffektes der Erde statt. Dies gilt besonders für Gegner der offiziell sanktionierten AGW–Hypothese. Die Autoren dieser Ausgabe nahmen an solchen Diskussionen teil – zusammen mit anderen in verschiedenen Wissensgebieten. Ich war bei diesen Debatten dabei, aber in den meisten Fällen mehr als Moderator denn als Experte. Diese Aktivitäten bemerkte der Herausgeber [der Zeitschrift] Energie & Umwelt [Energy & Environment], und das war der Grund für seine Einladung an mich, in dieser speziellen Ausgabe einen Gastbeitrag abzugeben. Die Bereiche, die ich für Überlegungen der wissenschaftlichen Gemeinschaft ausgesucht habe, werden weiter unten in Umrissen dargelegt, mit einem Vorwort zum generellen Konzept von Paradigmen.

Das erste Papier von R. Clark präsentiert die Argumente, die dagegen sprechen, dass eine weitere Zunahme des CO2 zu einem verstärkten Treibhauseffekt führt. Besonders die Prozesse des Strahlungstransportes in der Atmosphäre sowie der Massen– und Wärmeaustausch an Boden werden neu bewertet. Das nächste Papier von W. Eschenbach befasst sich mit der Thermostat–Hypothese, die eine regulierende Funktion bei Wetterereignissen hat. N. van Andel quantifiziert den Effekt der Windgeschwindigkeit auf den Massentransport von Wasserdampf und Wärme durch Verdunstung. Im vierten Papier stellt W. Kininmonth fest, dass gegenwärtige Computermodelle anscheinend den Zusammenhang zwischen steigender Temperatur und zunehmender Verdunstung (sowie dem Austausch latenter Wärme) unterschätzen – was zu einer erheblichen Übertreibung der Reaktion der Temperatur auf den Strahlungsantrieb führt. D. Thoenes befasst sich anschließend mit dem stabilisierenden Effekt der Ozeane auf das Klima, einem Thema höchster Wichtigkeit, das auf Berechnungen aus Experimenten mit der Verdunstung von Salzwasser in Verdunstungsbecken [auf der Insel] Bonaire basiert. Die Kurzkommentare von P. Siegmund zu den Arbeiten von Thoenes und N. van Andel sind hier ebenfalls beigefügt. Das Papier von F. Miskolczi erklärt grundlegende physikalische Gesetze und könnte die Unterüberschrift „Eine neue Interpretation der Beobachtungen von Wetterballonen“ tragen. Der Autor leitet darin neue Beziehungen her zwischen den Energieflüssen in die Atmosphäre hinein und heraus, was als ‚Miskolczi–Theorie’ bekannt geworden ist. W. Gilbert erforscht die Beziehung zwischen der Temperatur am Boden und der Wasserdampfkonzentration und erweitert die Arbeit von Miskolczi mit Rücksicht auf die thermodynamischen Kräfte, die den hydrologischen Zyklus antreiben. Die Überschrift des letzten Papiers von van Andel erläutert die Konsequenzen der Miskolczi–Theorie. Die Manuskripte wurden an viele Teilnehmer der Diskussionsgruppen zur kritischen Bewertung gesandt, von denen sie gekommen waren, obwohl ein Konsens nicht immer erreicht werden konnte unter jenen, die an diesem internen System der wissenschaftlichen Begutachtung teilnahmen. Als nächstes wurde jedes Papier zur kritischen Begutachtung an zwei externe Gutachter übermittelt. Falls einer von ihnen glaubte, das Papier zurückweisen zu müssen, wurde ein dritter Gutachter hinzugezogen. Falls diese dritte Bewertung positiv ausfiel, wurde es dem Autor selbst überlassen, die Kritik abzuwägen. Daher liegen die Schlussfolgerungen in jedem Papier ausschließlich bei den Autoren. Nach Meinung des Autors dieses Gastbeitrages ist dies ein sauberer Weg der ‚wissenschaftlichen Begutachtung’. Jedoch behauptet er nicht, dass die präsentierten Arbeiten die AGW–Hypothese als falsch entlarven. Im Geiste des Mottos dieser Zeitschrift „Treibstoff für die Gedanken“ beweisen sie aber sehr stark, dass der Aufschrei „The Science is

Settled“ zumindest verfrüht erscheint. Gastredakteur Prof. Dr. Arthur Rörsch Ehemaliger Vizepräsident des Board of Management of the Netherlands Organisation for Applied Research. (TNO) Leiden, The Netherland., ii Energy & Environment · Vol. 21, No. 4, 2010 E & E Beiträge siehe pdf Anlage Die Übersetzung besorgte dankenswerterweise Chris Frey EIKE

Related Files invitation_to_discuss_the_papers_in_e-pdf ee_21-4_paradigm_shift_output_limited_3_mb-pdf

Klimamodelle des Glaubens! Oder warum 2+2=5 sein könnte! Die Behauptung, dass anthropogenes CO2 für die gegenwärtige Erwärmung des Erdklimas verantwortlich ist, ist wissenschaftlich unerträglich, weil die

Klimamodelle unzuverlässig sind „Wer es ablehnt, Arithmetik zu betreiben, ist dazu verdammt, Unsinn zu reden!“ – John McCarthy1 „DIE LETZTEN WISSENSCHAFTLICHEN DATEN BESTÄTIGEN, dass sich das Erdklima rasch verändert… Der Grund? Eine sich vergrößernde Schicht der Verschmutzung durch Kohlendioxid, hauptsächlich von Kraftwerken und Autos, die die Wärme in der Atmosphäre einfängt… die mittlere Temperatur in den USA könnte bis zum Ende des Jahrhunderts um weitere 3 bis 9 Grad steigen… Der Meeresspiegel wird steigen, Hitzewellen werden häufiger und intensiver. Dürren und Brände wird es immer öfter geben. Krankheiten übertragende Mücken werden ihr Verbreitungsgebiet immer mehr ausdehnen. Und viele Arten werden aussterben“. So heißt es im National Resources Defense Council2 [etwa: Nationaler Rat zum Schutz der Ressourcen] mit Zustimmung des Sierra Club3, Greenpeace4, National Geographic5, der US-Akademie der Wissenschaften6 und dem Vorstand des USKongresses7. Gleichlautende Ansichten sind weit verbreitet8, wie das Browsen im Internet oder jedes gute Buchgeschäft bestätigen wird. Mindestens seit dem 1995 erschienenen Zweiten Zustandsbericht hat das IPCC immer sicherer klingend festgestellt, dass anthropogenes Kohlendioxid (CO2) das Klima beeinflusst, und dass dies der Hauptgrund für den nachgewiesenen Erwärmungstrend seit 1900 ist. Der gegenwärtige Anteil des atmosphärischen CO2 beträgt 390 parts per million (ppm) oder 0,039% des Gasgemisches der Atmosphäre. Im Jahre 1900 waren es etwa 295 ppm. Falls sich der Trend des 20. Jahrhunderts unvermindert fortsetzt, wird sich der Anteil von CO2 in der Atmosphäre etwa verdoppelt haben bis 600 ppm. Dies ist die Basis für das gewöhnlich „CO2–Verdoppelung“ genannte Szenario. Die CO2–Verdoppelung ist eine Wegmarke der Klimawissenschaftler für die Abschätzung des Treibhauseffektes. Die Erde empfängt etwa 342 Watt pro Quadratmeter (W/m2) einkommender Strahlung von der Sonne, und alle diese Strahlung wird letztendlich wieder in den Weltraum abgestrahlt. Allerdings absorbieren CO2 und andere Treibhausgase, am meisten Wasserdampf, einiges dieser ausgestrahlten Energie und wärmen so die Atmosphäre. Dies nennt man den Treibhauseffekt. Ohne diesen Effekt läge die mittlere Temperatur der Erde bei frostigen -19°C. Der Treibhauseffekt erwärmt die Erde bis etwa 14°C und macht sie so überhaupt erst bewohnbar9. Mit steigendem CO2 wird noch mehr der ausgestrahlten Energie absorbiert, was die Thermodynamik der Atmosphäre verändert. Alle zusätzlichen Treibhausgase einschließlich CO2, die seit 1900 in die Atmosphäre gelangt sind, kommen einer zusätzlichen Absorption von etwa 2,7 W/m2 in der Atmosphäre gleich10. Dies ist der besorgliche Treibhauseffekt. Am 2. Februar 2007 veröffentlichte die Arbeitsgruppe 1 (WG1) des IPCC die „Zusammenfassung für Politiker (Summary for Policymakers SPM) über den Zustand des Erdklimas“11. Er enthält eine umfassende Zusammenfassung der Wissenschaft, die die oben gemachte Vorhersage stützt. Der ganze „Vierte Sachstandsbericht“ (Fourth Assessment Report, 4AR) wurde 2007 nach und nach veröffentlicht.

Abbildung 1 zeigt eine Schwarz-weiß-Version des „Sonderberichtes für Emissionsszenarien“ (Special Report on Emission Scenarios SRES) in SPM-5 der WG1 des IPCC, der die Zukunft der globalen Mitteltemperatur projiziert. Diese Projektionen11 wurden mit Hilfe von generellen Zirkulationsmodellen (General Circulation Models GCMs) durchgeführt. GCMs, das sind Computerprogramme, die die physikalischen Auswirkungen des Klimas berechnen; Auswirkungen u. A. auf die Ozeane, die polaren Eiskappen und die dynamische Antwort der Atmosphäre zu verschiedenen Antriebskräften. Antriebe und Feedbacks sind diejenigen Elemente, die den Energiefluss im Klimasystem steuern. Sie schließen das Sonnenlicht, Meeresströme, Stürme und Wolken, die Albedo (die Reflektivität der Erde) sowie die Treibhausgase Wasserdampf, CO2, Methan, Nitrooxide und Fluorchlorkohlenstoffe ein. In der Abbildung 1 nimmt das B1–Szenario einen CO2–Anstieg auf 600 ppm, A1B bis 850 ppm und A2 einen solchen auf pessimistische 1250 ppm an. Das „Jahr 2000 Szenario“ bildet den optimistischen Fall ab, den CO2–Gehalt stabil bei 390 ppm zu halten. Die Bildunterschrift unter der Abbildung SPM-5 lautet (in Auszügen): „Durchgezogenen Linien zeigen die Erwärmung der Erdoberfläche im globalen Mittel (im Vergleich zum Zeitraum 1980 – 1999) für die Szenarien A2, A1B und B1, dargestellt als Fortsetzung der Simulationen des 20. Jahrhunderts. Die Schattierungen zeigen die Standartabweichung der individuellen Modelle“.

Gut und schön! Wir schauen uns die Projektionen an und sehen, dass die Fehlergrenzen nicht sehr unterschiedlich sind. Egal was passiert, es wird angenommen, dass die globale Temperatur im 21. Jahrhundert signifikant steigen wird. Eine kleine Woge der Verzweiflung taucht auf, dass es unter keinen Umständen gelingen wird, den CO2–Gehalt auf dem heutigen Stand zu halten. Das Jahr 2000 Szenario wird nur als Kontrast gezeigt. Die Wissenschaft ist hier in Ordnung, und wir können uns gefasst machen auf eine anthropogen verursachte Erwärmung im 21 Jahrhundert, mit all den daraus resultierenden Gefahren. Fühlen Sie sich schon schuldig? Aber vielleicht ist ja das alles nicht so eindeutig! Im Jahre 2001 wurden in der Zeitschrift Climate Research13 offen die Unsicherheiten der Physik diskutiert, die in die GCMs einfließen. Dieses Papier war sehr kontrovers und verursachte eine [intensive] Debatte14. Aber über alle Kontroversen hinweg wurde nicht über die grundlegenden physikalischen Unsicherheiten gesprochen. Es stellte sich heraus, dass die Unsicherheiten der energetischen Reaktion des Klimasystems der Erde über 10 mal größer sind als der gesamte Effekt zunehmenden CO2–Gehaltes15. Wenn die Unsicherheit größer ist als die [angenommene] Auswirkung, wird die Auswirkung selbst irrelevant. Wenn aber die Auswirkung selbst strittig ist, über was hat das IPCC dann geredet? Und woher nimmt es die Gewissheit des großen Einflusses des CO2 auf die Atmosphäre? Mit diesen Fragen im Hinterkopf schaue man noch einmal auf die Legende der Abbildung SPM-5. Dort heißt es „Die Schattierungen zeigen die Standardabweichung der individuellen Modelle“. Die Linien in der Abbildung repräsentieren die vom GCM projizierte jährliche Mitteltemperatur. Die Legende besagt, dass während 68% der Zeit (eine Standardabweichung) die Modellprojektionen in den schattierten Bereichen liegen werden. Sie sagt nicht, dass die schattierten Bereiche die physikalische Verlässlichkeit der Projektionen angeben. Die schattierten Bereiche zeigen nichts über die physikalische Ungewissheit der Temperaturprojektionen. Sie zeigen die numerische Instabilität der Modelle. Die Botschaft der Legende lautet, dass Klimamodelle nicht zweimal den gleichen Trend ergeben werden. Sie garantieren nur, dass dies in den schattierten 68% der Zeit der Fall ist16. Dieser Punkt ist so wichtig, dass er mit einem einfachen Beispiel verdeutlicht werden soll. Nehmen wir an, ich hätte ein Computermodell allgemeiner Arithmetik, das behauptet, 2 + 2 = 5 ± 0,1. Jedes Mal, wenn ich das Modell rechne, gibt es eine Chance von 68%, dass das Ergebnis innerhalb des Bereiches 0,1 Einheiten um die 5 liegen wird. Meine schattierte Region wäre 0,1 Einheiten breit. Wenn 40 verschiedene Forschergruppen 40 leicht unterschiedliche arithmetische Modelle hätten, die ähnliche Ergebnisse bringen würden, könnten wir uns alle zu einem Konsens gratulieren. Nehmen wir jetzt weiter an, wir könnten die Modelle soweit verbessern, dass das Ergebnis jetzt lauten würde: 2 + 2 = 5 ± 0,01. Dann könnten wir behaupten, wir hätten unsere Modelle so weit verbessert, dass sie jetzt 10 Mal genauer wären als zuvor. Aber natürlich wären sie alle genauso falsch wie vorher, weil die exakte Arithmetik nun einmal ergibt, das 2 + 2 =

4. Dieses Beispiel zeigt den kritischen Unterschied zwischen Präzision und Genauigkeit. In der Abbildung 1 sind die schattierten Bereiche die rechnerischen Ungenauigkeiten der Computermodelle. Sie zeigen nicht die physikalische Genauigkeit der Projektionen. Sie sagen uns gar nichts über die physikalische Genauigkeit. Aber physikalische Genauigkeit – Verlässlichkeit – war immer das, wonach wir in den Vorhersage über künftige Ereignisse in der realen Welt gesucht haben. Es ist dieser Punkt – die physikalische Genauigkeit von globalen Zirkulationsmodellen GCM – mit dem sich dieser Artikel befassen wird. Die erste Annäherung an physikalische Präzision in den GCMs ist es, zu ermitteln, was sie projizieren. Der am meisten propagierte Trend – den, den wir immer sehen – ist die globale mittlere Temperatur.

Abbildung 2a zeigt die Trends der Temperatur von 10 GCMs, die in dem Projekt „Coupled Model Intercomparison Project“ (GMIP) [etwa: gekoppeltes Modellvergleichsprojekt] im „Lawrence Livermore National Laboratory“17 berechnet wurden. Sie zeigen, was passieren würde, wenn das atmosphärische

CO2 stetig um 1% pro Jahr (etwa doppelt so viel wie gegenwärtig) innerhalb der nächsten 80 Jahre steigen würde. Die Klimamodelle schlossen andere „äußere Antriebe“ aus, wie z. B. Vulkanausbrüche, anthropogenes Aerosol sowie Änderungen der Solarstrahlung. Andererseits berücksichtigten sie interne Feedbacks wie beispielsweise den Wärmeaustausch zwischen Ozean und Atmosphäre, Änderungen des Schneefalls, Schmelzen der Eiskappen und so weiter. Diese GCMs sind entweder identisch oder sehr ähnlich den GCMs, die das IPCC für die Vorhersage der künftigen Temperatur des Erdklimas in Abbildung 1 (SPM-5) zeigt. Zusammen mit den GCM–Projektionen zeigt Abbildung 2a den Trend eines sehr einfachen Modells, in dem alles, was passiert, nur in einer passiven Erwärmung durch Treibhausgase mit keinerlei Klimafeedbacks besteht. Trotz dieser ihm innewohnenden Einfachheit geht der Graph der passiven Erwärmung genau durch die Mitte der Trendlinien des GCM. Dieses Resultat bedeutet, dass sich irgendwie die Quintillionen Watt an Feedback von den Ozeanen, der Atmosphäre, der Albedo und den Wolken in den generellen Zirkulationsmodellen zusammen zu null mitteln. Neben den geringen Spielräumen der Intensität simulieren alle GCMs wenig mehr als passive globale Erwärmung. Alle Berechnungen, die die hier gezeigten Schlussfolgerungen stützen, werden in der unterstützenden Information (Supporting Information SI) präsentiert, die man auf der Site www.skeptic.com einsehen kann. Hier folgt das vereinfachte Treibhausmodell insgesamt: Global Warming=0,36x(33°C)x[(Total Forcing ÷ (Base Forcing)] Sehr kompliziert! “33°C” ist die Basis-Treibhaustemperatur der Erde, wie sie im Jahre 1900 definiert wurde19. „0,36“ ist der Teil der Treibhauserwärmung, von dem gesagt wird, dass es durch das CO2 plus „das erweiterte WasserdampfFeedback“ geliefert wird20. Die erweiterte Idee dahinter ist, wenn CO2 die Atmosphäre erwärmt, wird auch mehr Wasserdampf produziert. Dieser zusätzliche Wasserdampf beschleunigt die Erwärmung durch das CO221. All dies wird detailliert zur kritischen Durchsicht in Sektion 1 bei der SI ersichtlich. Die vom IPCC anerkannten Gleichungen10 wurden zur Berechnung der Auswirkungen der Treibhausgase CO2, Methan und Stickstoffoxide [nitrous oxide] benutzt – die hauptsächlichen Treibhausgase derzeit. Das ist alles. Nichts, was komplizierter ist als Algebra, wurde hinzugezogen.

Die Mittellinie des GCM in Abbildung 2a (die schwarze Linie mit der weißen Mitte) ist das „Ensemble Mittel“ aller 10 GCM–Projektionen; das heißt ihre Summe geteilt durch 10. Ensembles werden typischerweise als genauer angesehen als jede einzelne individuelle GCM–Projektion22. Unter diesem Kriterium ist das Modell der passiven Erwärmung physikalisch akkurater als irgendeines der multimillionen teuren GCMs, weil es näher am Ensemblemittel liegt als jedes der 10 Klimamodelle (SI Sektion 2). Abbildung 2b zeigt einen ähnlichen Vergleich mit Projektionen von zwei hochauflösenden GCMs vom Geophysical Fluid Dynamics Laboratory der NOAA18, die Feedbacks von allen bekannten Klimaprozessen auf der Erde enthalten. Das einfache Modell zeigt die Temperaturprojektion näher [am Mittelwert] als viele der anderen komplexen GCMs zusammen. Abbildung 2a zeigt, dass das physikalische Modell des Erdklimas in den GCMs im Falle einer Zunahme von CO2 simuliert, dass die Temperatur kaum etwas anderes macht außer einer passiven Reaktion in linearer Weise auf den Antrieb der Treibhausgase. Die gleiche Schlussfolgerung ergibt sich beim Betrachten von Kontrollläufen der GCMs, die die Temperaturentwicklung bei konstantem CO2–Gehalt simulieren. Eine davon zeigt Abbildung 1 – das „Jahr-2000Szenario“. Die Kurve ist beinahe eben. Besonders seit der Ära der Satelliten konnten spezielle Aspekte des Klimas, wie Bewölkung oder die Oberflächentemperatur um den ganzen Globus aufgezeichnet werden. Man kann GCM mit der Rückwärtsmethode testen, indem man sie das bekannte Klimageschehen der Vergangenheit simulieren lässt anstelle der erwarteten Entwicklung in der Zukunft. Physikalische Fehler in den GCMs bzgl. der simulierten Vergangenheit können dann mit der realen Vergangenheit verglichen werden.

Abbildung 3 zeigt die vom Satelliten beobachtete Bewölkung im Zeitraum Dezember – Januar – Februar, gemittelt über die Jahre 1983 bis 1990. Sie zeigt auch die globale mittlere Bewölkung über die ähnliche Periode von 1979 bis 198823 durch 10 begutachtete GCMs24. Die GCMs wurden benutzt, um zu versuchen, die beobachtete Bewölkung zu reproduzieren und wurden dann überarbeitet und erneut getestet. Diese Studie wurde 1999 veröffentlicht, aber die Genauigkeit zwischen den Rekonstruktionen der GCMs und den Beobachtungen hat sich während der letzten 9 Jahre kaum verbessert25. Betrachtet man Abbildung 3, zeigen die GCMs ziemlich genau die Form eines W bei der Bewölkung der Erde, aber es zeigen sich signifikante Verluste durch alle Modelle in allen Breiten einschließlich der Tropen, wo die Wolken einen großen Einfluss auf das Klima haben26. Also, wie falsch sind die GCMs? Eine Methode, den Fehler abzuschätzen, besteht darin, dass man über die Gesamtbewölkung, die von jedem Modell in der Rückschau simuliert wurde, integriert und dies mit der tatsächlich beobachteten Gesamtbewölkung vergleicht (SI Sektion 3). Den Fehler auf diese Weise zu ermitteln ist ein wenig vereinfachend, weil eine positive Abweichung in einer Breite durch eine negative Abweichung in einer anderen Breite kompensiert werden kann. Dieses Verfahren ergab eine mittlere Fehlerquote der Bewölkung von ±10,1%. Dieser Wert ist etwa halb so groß wie die offiziell festgelegte Fehlerquote bei den GCMs. Nennen wir diese ±10,1% den minimalen Fehler bzgl. der Bewölkung bei

den GCMs. Die mittlere Energiezufuhr der Wolken zum Erdklima lässt sich mit einem Wert von etwa -27,6 W/m2 27 beziffern. Das bedeutet, dass ein Fehler von ±10,1% eine Unsicherheit von ±2,8 W/m2 in den GCM–Projektionen hat. Diese Unsicherheit liegt bei etwa 100% des gegenwärtigen Treibhausantriebs durch alle anthropogen erzeugten Treibhausgase, die sich gegenwärtig in der Atmosphäre befinden10. Wenn man dies berücksichtigt, ergibt sich eine wahre, jedoch unvollständige Abschätzung der physikalischen Verlässlichkeit eines GCM–Temperaturtrends. Was passiert also, wenn man diese ±2,8 W/m2 durch die SRES Temperaturtrends laufen lässt, die vom IPCC in Abbildung 1 angeboten werden? Bei der Berechnung einer Temperaturprojektion von Jahr zu Jahr wird jeder neue Temperaturwert plus dessen physikalischer Fehlergrenze in die Berechnung der Temperatur plus dessen Fehlergrenze eingegeben. Diese Art der Unsicherheit akkumuliert sich in jedem Jahr, weil jede vorhergesagte Temperatur die gesamte ±(physikalische Unsicherheit) enthält (SI Sektion 4).

Abbildung 4 zeigt die A2 SRES–Projektion, wie sie ausgesehen haben könnte, wenn das IPCC sich entschieden hätte, den Minimalfehler ±10,1% bzgl. der

Wolken als ein Maß der Genauigkeit ihrer Temperaturprojektionen für das 21. Jahrhundert einzuführen. Dieses Resultat ist etwas ärgerlich. Die physikalische Ungewissheit akkumuliert rapide und ist in 100 Jahren so groß, dass sie bei einer Anpassung die steile SRES A2–Projektion in Abbildung 1 beinahe eingeebnet hätte. Die Ungewissheit von ±4,4°C im 4. Jahr übersteigt sogar schon die gesamte Temperaturzunahme von 3,7°C in 100 Jahren. In 50 Jahren liegt die simulierte Unsicherheit schon bei ±55°C. In 100 Jahren liegt dieser Wert bei ±111°C. Man erinnere sich, diese riesige Unsicherheit ergibt sich aus einem minimalen Fehler bei der Abschätzung der Bewölkung! Hinsichtlich der aktuellen Entwicklung der Erdklimas besagt diese Unsicherheit nicht, dass die GCMs simulieren, in 100 Jahren sei es möglicherweise 100 K wärmer oder kälter als heute. Sie besagt, dass die Grenzen der Auflösung der GCMs – ihre Pixelgröße – gewaltig ist verglichen mit dem, was sie projizieren sollen. In jedem neuen Projektionsjahr einer Berechnung in der Größenordnung eines Jahrhunderts wird die Ungewissheit darüber, wie sehr die Wolken das Klima beeinflussen, größer und das Betrachten eines GCM zunehmend verwirrender. Es ist, als ob man jedes Mal, wenn man sich umdreht, eine stärker und stärker streuende Linse vor unsere Augen hält. Erst verschwinden die Blumen, dann die Leute, dann die Autos die Häuser und schließlich sogar große Wolkenkratzer. Alles verwischt sich und lässt nur unbestimmte Farbkleckse zurück, und sogar großräumige Bewegungen können nicht mehr erkannt werden. Die Behauptung, dass die GCMs ein verlässliches Bild des zukünftigen Klimas liefern, ist etwa so stimmig wie wenn man beim Sichten eines undefinierbaren Farbkleckses darauf besteht, dass es sich um ein Haus mit einer Katze im Fenster handelt. Die starke Schattierung in Abbildung 4 zeigt den Fehler, der sich aus den Unsicherheiten des Einflusses der Treibhausgase selbst (~1% für CO2, ~10% für Methan, ~5% für Nitrooxide)10, und wie sehr sich diese kleinen Unsicherheiten über einen Vorhersagezeitraum von 100 Jahren aufschaukeln. Nach einem Jahrhundert beträgt die Unsicherheit der vorhergesagten globalen Mitteltemperatur ±17 K, nur aus der Akkumulation des kleinsten Fehlers beim Antrieb allein. Die Schwierigkeit ist sogar über kurze Zeiträume ernst. Das kleine Bild in der Abbildung 4 zeigt, dass nach nur 20 Jahren die Unsicherheit bzgl. der Wolken schon ±22 K beträgt und ±3 K bzgl. des Antriebs durch die Gase. Der Effekt der ±1%–Unsicherheit allein zeigt, dass zu 99% akkurate GCMs nicht erkennen können, ob wir in nicht einmal 20 Jahren eine neue Eiszeit oder aber eine tropische Warmzeit haben werden. Diese physikalischen Unsicherheiten sind nicht nur erheblich größer als vom IPCC in Abbildung 1 zugelassenen, sondern die tatsächlich zugelassenen Fehlergrenzen des IPCC sind nicht einmal physikalisch16. Wenn man eine Akkumulation der Unsicherheiten bzgl. der Wolken und es Antriebs der Gase zusammen zulässt, ergibt sich nach dem A2–Szenario nach 5 Jahren eine um 0,34 K wärmere Erde mit einer Fehlergrenze von ±8,8 K. In 10 Jahren wird daraus 0,44 ± 15 K und in 20 Jahren 0,6 ± 27,7 K. Im Jahre 2100 läge diese Projektion bei 3,7 ± 130 K. Nur aus der Unsicherheit der Bewölkungsmenge ergibt sich, dass die Fehlergrenze sehr viel größer ist als

die simulierte Temperaturzunahme. Was ist glaubwürdig an einer Vorhersage, deren Fehlergrenze 20 bis 40 mal größer ist als die Vorhersage selbst? Nach nur wenigen Jahren ist die Simulation der globalen Temperatur durch ein GCM nicht verlässlicher als bloßes raten. Dies bedeutet, dass die Wirkung der Treibhausgase auf die Erdatmosphäre nicht vorhersagbar und damit nicht bestimmbar ist. Und damit irrelevant. Das rasante Anwachsen der Fehlergrenzen bedeutet, dass die GCMs nach 5 Jahren nicht mehr unterscheiden könne, ob wir eine Eiszeit oder eine Hitzehölle haben werden; geschweige denn nach 100 Jahren. So weit es die GCMs betrifft, kann die Erde im Jahre 2100 ein Winterwunderland sein oder ein tropisches Paradies. Niemand weiß das.Direkte Tests von Klimamodellen zeigen das Gleiche. Im Jahre 2002 hat Matthew Collins vom UK Hadley Centre das GCM HadCM3 benutzt, um ein künstliches Klima zu erschaffen, und hat dann berechnet, wie sich das gleiche Klima entwickelt, dass er selbst erschaffen hat. Es verhielt sich ärmlich, obwohl es sich um das perfekte Modell handelte. Das Problem lag darin, dass kleine Unsicherheiten bei den Eingaben – den Startbedingungen – rapide zunahmen und das GCM sehr schnell in die Belanglosigkeit trieb. Sogar mit dem perfekten Modell, berichtet Collins, „scheint es so, dass die jährliche globale Mitteltemperatur potentiell 1 Jahr im voraus vorhergesagt werden kann, und eine Vorhersage für 5 oder 10 Jahre allenfalls marginal möglich ist.“ Also, mit einem perfekten Klimamodell und fast perfekten Anfangsbedingungen könnte man eines Tages potentiell oder marginal vorhersagen, aber man kann noch nicht 1 Jahr im Voraus Vorhersagen machen. Und mit diesen mangelhaften Modellen macht das IPCC Vorhersagen für 100 Jahre im Voraus! In einem ähnlichen Test auf Zuverlässigkeit hat William Merryfield 2006 15 GCMs rechnen lassen, um künftige El-Niño Southern Oscillations (ENSO) in einem treibhausgewärmten Klima zu simulieren29. Er fand: „Bei einer Verdoppelung des CO2–Gehaltes zeigen 8 der 15 Modelle Änderungen mit einer signifikant (p

Suggest Documents