Fake-Temperaturen?

David Wojick, Ph.D.
Die groß heraus gestellten mittleren globalen Temperaturen, welche die Grundlage für die Angst vor der globalen Erwärmung sind, stimmen nicht. Im Gegensatz zum allgemeinen Glauben handelt es sich bei diesen Temperaturen nicht um Messungen. Vielmehr sind sie das Ergebnis komplexer statistischer Modelle. Diese statistischen Modelle sind bei jedem einzelnen Zeichen so fragwürdig wie die Klimamodelle, in die sie Eingang finden, wenn nicht noch fragwürdiger.

Die Globale-Erwärmung-Angst basiert auf der vermeintlich raschen Erwärmung an der Erdoberfläche, zu der es in den beiden Jahrzehnten zwischen 1978 und 1997 gekommen war. Die Klimamodelle werden mit dieser Erwärmung frisiert und spekulative menschliche Gründe zu deren Erklärung angegeben. Dann wird diese Erwärmung einfach in die Zukunft projiziert, wo sie ein gefährliches Niveau erreicht, und damit wird die Angst erzeugt.

Aber die Satelliten zeigen keine Erwärmung in der Atmosphäre während dieses Zeitraumes, wie es der Fall sein sollte, falls die Erwärmung wirklich Treibhausgasen geschuldet ist. Die Satelliten zeigen während dieser entscheidenden Zeit überhaupt keine Erwärmung. Diese Null-Erwärmung zeigt sehr nachdrücklich, dass die statistischen Modelle bzgl. der Erdoberfläche falsch sind.

Man behalte im Hinterkopf, dass diese globale Temperaturstatistik nicht anders ist als eine Umfrage vor Wahlen, und wir wissen, wie falsch die Ergebnisse einer solchen sein können. Eine unglaublich kleine Untermenge der Gesamtbevölkerung wird befragt. In diesem Falle steht die Gesamtbevölkerung für die Temperatur an jedem Ort der Erde zu jedem Zeitpunkt über ein ganzes Jahr.

Die die Umfrage Durchführenden wissen, dass viel falsch laufen kann. Offenbar wissen die Alarmisten dies nicht, welche diese kruden Temperaturschätzungen als präzise Fakten verkaufen – oder sie entscheiden sich dafür, die Temperaturwerte zu erfinden [to fake it].

In diesen statistischen Modellen stecken mindestens zehn grobe Fehler. Diese Fehler stützen die Ansicht, dass diese kruden Temperaturschätzungen einfach falsch sind. Einige Fehler sind gut bekannt, wie etwa willkürliche Adjustierungen und der städtische Wärmeinsel-Effekt. Andere Schwächen sind nicht so bekannt, wie lokale Wärme-Beeinflussungen, Verfahren der Mittelung über ein Gebiet und Interpolation oder die Verwendung von Meerwasser-Proxys – oder man verkauft den mittleren Wert einfach als wahr, obwohl wir wissen, dass das nicht stimmt. All dies wird Gegenstand späterer Analysen sein.

Aber hier möchte ich den größten Fehler ansprechen, über den nur sehr wenig diskutiert wird. Die statistischen Modelle operieren mit etwas, dass in der Statistik als die „Verfügbarkeit“ oder „Angemessenheit“ einer Stichprobe bezeichnet wird [„availability“ or „convenience“].

Zunächst beachte man, dass die Alarmisten behaupten, die globale Temperatur bis auf ein hundertstel Grad genau zu kennen. Dazu folgendes Beispiel aus dem jüngsten Global Climate Report der NOAA für das Jahr 2016:

„Die mittlere globale Temperatur über Festlands- und Ozean-Gebieten lag im Jahre 2016 um 0,94°C über dem Mittelwert des 20. Jahrhunderts von 13,9°C. Damit wurde die zuvor schon ermittelte Rekordwärme des Jahres 2015 noch um 0,04°C übertroffen“.

Ein Hundertstel eines Grades ist eine unglaubliche Genauigkeit angesichts des Umstandes, dass die Temperatur auf dem Globus an vielen Tagen Unterschiede bis hundert Grad oder mehr aufweist. Tatsächlich ist das nicht glaubhaft. Die Wahrheit ist, dass diese statistischen Modelle nicht einfach nur ungenau, sondern völlig wertlos sind – und zwar aus folgenden Gründen:

Die Mathematik hinter der Statistik steht auf der Grundlage der Wahrscheinlichkeitstheorie. Folglich ist es eine der absoluten Erfordernisse, dass die Stichprobe zufällig ist. Falls die Stichprobe nicht zufällig ist, kann diese Mathematik nicht angewendet werden.

Tatsächlich sind die in die statistischen Modelle eingehenden Stichproben alles andere als zufällige Stichproben von der Erdoberfläche. Sie zeigen in der Nähe städtischer Gebiete und von Flughäfen in entwickelten Ländern eine starke Drängung. Die Stellen sind nicht ausgewählt nach einem globalen System des Sammelns von Stichproben, und sie sind mit Sicherheit nicht zufällig. Über den Ozeanen ist es sogar noch schlimmer, weil es dort überhaupt keine festen Stationen gibt. In den meisten Gebieten der Erde gab es keine festen, die Temperatur messenden Stationen während des fraglichen Zeitraumes, und das ist immer noch so. Es gibt keine Zufalls-Stichprobe der Temperatur der Erde.

Kurz gesagt, die statistischen Modelle nehmen die verfügbaren Daten und nicht eine Zufalls-Stichprobe der Population. Die Statistik-Theorie des Sammelns von Stichproben legt eindeutig fest, dass Gefälligkeits-Stichproben wie diese nicht herangezogen werden dürfen, um für die gesamte Population eine Statistik abzuschätzen. Aber genau das wird mit der globalen mittleren Temperatur gemacht – bis auf ein hundertstel Grad genau. Das ist einfach Unsinn.

Die statistische Wissenschaft ist eindeutig: eine Gefälligkeits (convenience)-Stichprobe erlaubt keine genaue Schätzung. Hier folgen ein paar Beispiele von verschiedenen Websites bzgl. statistischer Wissenschaft:

A. „Research Methodology” sagt Folgendes:

Nachteile der convenience-Stichprobe:

Hoch anfällig für einen Bias (Vorurteil) bei der Auswahl und für Einflüsse, die sich der Kontrolle der Forscher entziehen.

Hohes Niveau von Stichproben-Fehlern.

Studien auf der Grundlage von convenience-Stichproben haben aus den o. g. Gründen kaum Glaubwürdigkeit.

B. „ThoughtCo.com” sagt Folgendes:

Probleme mit convenience-Stichproben:

Wie die Bezeichnung schon sagt, sind convenience-Stichproben definitiv einfach zu gewinnen. Es gibt praktisch keinerlei Schwierigkeiten bei der Auswahl der Mitglieder der Population für eine convenience-Stichprobe.

Allerdings fordert dieses Fehlen von Mühe einen Preis: convenience-Stichproben sind in der Statistik praktisch wertlos.

C. Bei „Conveniencesampling.net” lesen wir:

Wegen der Fehler bei dieser Art von Gewinnung der Stichproben können Wissenschaftler aus ihren Daten keine konkreten Schlussfolgerungen ziehen.

Also basiert die Globale-Erwärmung-Angst auf globaler Statistik, die keine Glaubwürdigkeit hat, praktisch wertlos ist und keine konkreten Schlussfolgerungen zulässt. Was für ein Durcheinander!

Die alarmistische Klimawissenschaft stolpert über die eigenen Füße bei dem Versuch, eine Periode von zwei Dekaden mit rapider Erwärmung herbeizureden, welche nach den Satellitenbeobachtungen gar nicht existiert. Die Temperaturen werden faked. Mehr muss man dazu nicht sagen.

Link: https://www.cfact.org/2017/05/18/fake-temperatures/

Übersetzt von Chris Frey EIKE

Anmerkungen der Redaktion:

  1. Zur Auswirkung dieser Problematik auf die Ergebnisse sind u.a. von EIKE Vize Michael Limburg bereits vor Jahren mehrere Arbeiten erschienen. Sie können hier eingesehen werden.
  2. Was es mit der aktuellen  echten Convenience Verteilung von Temperaturmesstationen bzw. SST Messungen auf sich hat beleuchtet Fred. F. Singer einmal mehr in diesem Artikel (wird in Kürze hier auf Deutsch erscheinen)
  3. Als Ergebnis muss daher festgehalten werden: Wer die globale Mitteltemperatur bzw. deren Abweichungen auf Grund von Temperaturmessungen durch Wetterstationen und verschiedener SST Quellen glaubt bestimmen zu können, versteht entweder nichts von Statistik oder wendet diese bewusst falsch an.

Quelle: https://www.eike-klima-energie.eu/2017/05/27/fake-temperaturen/

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s