Vi tar i dag utgangpunkt i Klimanytt 93 som omhandler manipulasjon av temperaturmålinger og ser nærmere på kvaliteten av de statistiske metodene som er benyttet til å utføre disse juksteringene som alle er utført uten at offentligheten har fått noen annen informasjon enn at dette fungerer etter intensjonene. Enkelte lurer muligens på hvorfor vi bruker et ladet uttrykk som «jukstering» og svaret på det er at dette oppslaget viser at det er brukt hjemmelagde statistiske metoder som ugyldiggjør juksteringene fordi de skaper en feilaktig langtidstrend.
Internasjonal omtale av temperaturjuksteringer
Disse juksteringene har vært omtalt mye, som her på Notalotofpeopleknowthat hvor man ser at Paraguays temperaturer i regi av GISS (Goddard Institute for Space Studies) ikke er som før, og her på WUWT hvor vi ser at også BEST (Berkely Earth gruppen, webside her) har et troverdighetsproblem. GISS har vært hyperaktive, her er et lite utvalg av temperaturjuksteringer fra resten av verden.
Deler av pressen har også omtalt den omfattende juksteringsvirksomheten her, men dette får du garantert ikke lese om i media som Aftenposten, Dagbladet eller NRK her hjemme, for der i gården bringer man bare til torgs politisk korrekte klimanyheter.
Juksteringene har til felles det at de kjøler eldre data opp til 1970 og varmer opp nyere data med det resultat at lange kjølende trender blir forvandlet til lange varmende trender. Når denne virksomheten er så omfattende og den utføres i regi av GISS som senere kunngjør 2014 som det varmeste året noensinne, så er det vanskelig å ha full tillit til GISS. At nevnte institusjon tilfeldigvis glemmer å opplyse om at de bare er 38% sikre på at dette var sant, gjør at de fleste skjønner hva som foregår. Dette er politikk, og GISS må da være 62% sikre på at de har kommet med en løgn.
Til alt overmål er det kort tid siden Obama-administrasjonen forlangte at forrige leder for forskningsaktivistene ved GISS (James Hansen) måtte gå av eller bli utsatt for en offentlig avskjedigelse grunnet en lengre serie skandaløse påstander som førte til forlegenhet flere steder.
Velkommen til klimavitenskapen hvor 1+1=3 den ene dagen og hvor svaret med største selvfølgelighet er 5 neste dag.
Takk til JOSH for denne fine tegningen, klikk på den for å se en større versjon.
Men hva sier vitenskapen?
Investigation of methods for hydroclimatic data homogenization
Steirou, E., and D. Koutsoyiannis, Investigation of methods for hydroclimatic data homogenization, European Geosciences Union General Assembly 2012, Geophysical Research Abstracts, Vol. 14, Vienna, 956-1, European Geosciences Union, 2012.
Abstract:
We investigate the methods used for the adjustment of inhomogeneities of temperature time series covering the last 100 years. Based on a systematic study of scientific literature, we classify and evaluate the observed inhomogeneities in historical and modern time series, as well as their adjustment methods. It turns out that these methods are mainly statistical, not well justified by experiments and are rarely supported by metadata. In many of the cases studied the proposed corrections are not even statistically significant.
From the global database GHCN-Monthly Version 2, we examine all stations containing both raw and adjusted data that satisfy certain criteria of continuity and distribution over the globe. In the United States of America, because of the large number of available stations, stations were chosen after a suitable sampling. In total we analyzed 181 stations globally. For these stations we calculated the differences between the adjusted and non-adjusted linear 100-year trends. It was found that in the two thirds of the cases, the homogenization procedure increased the positive or decreased the negative temperature trends.
One of the most common homogenization methods, ‘SNHT for single shifts’, was applied to synthetic time series with selected statistical characteristics, occasionally with offsets. The method was satisfactory when applied to independent data normally distributed, but not in data with long-term persistence.
The above results cast some doubts in the use of homogenization procedures and tend to indicate that the global temperature increase during the last century is between 0.4°C and 0.7°C, where these two values are the estimates derived from raw and adjusted data, respectively.
Konklusjonen?
Bare 0,4 grader Celsius av temperaturøkningen på 0,7 grader siste århundre er reell oppvarming. Først etter omfattende administrative juksteringer med tvilsomme metoder kommer man til 0,7 grader Celsius. Her har vi nok et faktum som er mer enn vanskelig å få øye på i den klimaortodokse pressen i Norge.
Rådataene er igjen beheftet med varierende kvalitet og ikke minst sterkt økende usikkerhet ettersom man beveger seg bakover i tid.
Innen de mest seriøse forskningskretsene nøyer man seg derfor ofte med å fastslå at kloden er noe varmere i dag enn for 150-200 år siden, men det er langt igjen til det er like varmt som da vikingene bosatte seg på Grønland for 1000 år siden. Å tallfeste denne utviklingen med vekselvis nedkjøling og oppvarming med stor nøyaktighet over tid er en krevende utfordring og IPCC valgte opprinnelig denne illustrasjonen fra Lamb 1962 for å illustrere det man vet om temperaturtrenden gjennom de siste 1000 årene.
Climate Audit
Klimarevisor Steven McIntyre er kjent for å ha bedre innsikt i hva som er gyldige statistikkmetoder innen klimavitenskapen enn den samlede mengden av klimaortodokse forskere, inklusive det vi finner her hjemme i Norge. McIntyre avslørte den uredelige vitenskapsprosessen ledet av Dr. Mann og tvang Klimapanelet til å slutte å bruke «Hockeykølla» som bevis for klimakrisen. Den gang var konklusjonen fra statistikerne i USA at her var det brukt tvilsomme metoder i statistikk som alene ugyldiggjorde forskningsresultatet. Dr. Mann har senere vært åpent omtalt som svindler av både politikere og forskere. Dette var totalt ødeleggende for Klimapanelets omdømme og det ble ikke bedre senere da det viste seg at mer forskning omfavnet av Klimapanelet (Steig, Marcott m.fl) ble avkledd all troverdighet på bloggen til McIntyre i løpet av få uker.
McIntyre skriver på sin blogg at dette er hjemmelagt statistikk fra et lite klimaforskermiljø og han ble nektet innsyn i hvordan Menne hadde konstruert denne algoritmen:
Menne’s methodology is another homemade statistical method developed by climate scientists introduced without peer review in the statistical literature. As a result, its properties are poorly known.
McIntyre var spesielt bekymret for at algoritmen spredde kunstig oppvarming fra urbane varmeøyer på lavkvalitets urbane målepunkter til høykvalitets målepunkter utenfor de store byene.
Etter det man kjenner til har forskningsaktivistene ved GISS et eget dataprogram som søker gjennom temperaturdata i databasen, og temperaturer justeres automatisk til høyere og mer passende verdier og drar ved et tilfeldig sammentreff med seg forurensede lavkvalitetsdata til flere målestasjoner. I fravær av andre observasjoner er det nærliggende å stille spørsmål ved forskernes kompetanse, graden av gruppetenkning og forekomsten av det såkalte «Noble Cause»syndromet.
Menneskeskapt global oppvarming
Nok en gang har vi sett et prakteksempel på at menneskeskapt global oppvarming eksisterer, men vet politikerne våre at det er slik det står til med kompetansen i statistikk i de mange forskningsmiljøene som har fått så store bevilgninger gjennom flere tiår?