Der englische Ingenieur studierte Mechanik und Mathematik, forschte zu Dampf, Druck und Batterien. Bis 1938 sammelte er Temperaturdaten aus aller Welt und sah, dass sich die Temperaturen in den 50 Jahren davor kontinuierlich erhöhten. Er stellte sie in Zusammenhang mit der Erhöhung der CO2 Konzentration dieser Jahre und berechnete einen Temperaturanstieg von 0,003 °C pro Jahr. Seine Arbeit ging in die Wissenschaftgeschichte als Callendar-Effekt ein.
„In seiner Freizeit (!) analysierte er die Temperaturdaten von 200 Wetterstationen weltweit und kam so 1938 zum Schluss, dass sich die Oberflächentemperatur der Erde zwischen 1890 und 1935 um etwa 0,3° erwärmt hat – was im ersten Moment nicht nach sonderlich viel klingt, in der Tat aber einen signifikanten Anstieg darstellt.“
Callendar baute auf die Arbeit einiger Wissenschaftler des 19. Jahrhunderts auf, darunter Svante Arrhenius und Nils Gustaf Ekholm. Zum Thema globale Erwärmung, Infrarot-Strahlung und das vom Menschen eingebrachte Kohlendioxid veröffentlichte er in den Jahren zwischen 1938 und 1964 zehn größere und 25 kürzere wissenschaftliche Artikel. Andere, wie der kanadische Physiker Gilbert Plass, erweiterten in den 1950er und 1960er Jahren auf Basis von Callenders Arbeit diese Studien.
Dies führte schließlich zu Charles Keelings Messungen am Mauna-Loa-Observatorium ab 1958, die sich als wegweisend für die Weiterentwicklung der Theorie der anthropogenen globalen Erwärmung erwiesen.
Der schwedische Meteorologe Nils Gustav Ekholm beschäftigte sich mit den Ursachen der Klimaschwankungen in der Erdgeschichte. Als wichtigsten Faktor sah er 1901 den sich verändernden Gehalt der Atmosphäre an Kohlendioxid an. Für die Zukunft erwartete er einen deutlichen Anstieg der mittleren Temperatur auf der Erde innerhalb weniger tausend Jahre, verursacht durch die Verbrennung fossiler Rohstoffe und den damit verbundenen Eintrag von Kohlendioxid (CO2) in die Atmosphäre.
Dass sich das Klima ändert und sich die Erde erwärmt, wissen wir schon sehr lange. „Wir haben 25 Jahre verloren. Hätten wir damals sofort reagiert, wären wir nicht in der Lage, in der wir heute sind,“ klagt ein Klimaforscher.
Nach Joseph Fourier, Eunice Newton Foote, John Tyndall und Svante Arrhenius erforschte der schwedische Meteorologe Nils Gustav Ekholm die Ursachen der Klimaschwankungen in der Erdgeschichte. Als wichtigsten Faktor sah er 1901 den sich verändernden Gehalt der Atmosphäre an Kohlendioxid (CO2) an. Für die Zukunft erwartete er einen deutlichen Anstieg der mittleren Temperatur auf der Erde innerhalb weniger tausend Jahre, verursacht durch die Verbrennung fossiler Rohstoffe und den damit verbundenen Eintrag von Kohlendioxid (CO2) in die Atmosphäre.
Der Kanadier Guy Steward Callendar erforschte in den 1930er-Jahren, wie stark die CO2-Konzentration in der Atmosphäre zugenommen hat. Er stellte fest, dass die Erde sich pro Jahr um 0,005 Grad Celsius erwärmt – zu viel für einen natürlichen Klimawandel, aber auch in seinen Augen ein positiver Effekt.
1941: Erste Warnungen vor der Klimaveränderung
Ein paar Jahre später, mitten im zweiten Weltkrieg, beschäftigte sich der junge deutsche Meteorologe Hermann Flohn im Reichsamt für Wetterdienst mit der Frage, wie Menschen das Klima verändern. Er erforscht die Wirkung von Städten, Stauseen und Wäldern auf das lokale Mikroklima und die Industrie-Emissionen wie CO2, aber auch Staub und Ruß. Angesichts der Komplexität der Zusammenhänge warnte Flohn 1941: „Mit einem Fortschreiten dieser sehr langsamen Erhöhung der Temperatur … muss gerechnet werden. Damit wird aber die Tätigkeit des Menschen zur Ursache einer erdumspannenden Klimaänderung, deren zukünftige Bedeutung niemand ahnen kann.“
Wissenschaft bleibt skeptisch gegen anthropogenen Klimawandel
Aber auch danach zweifeln Forscher noch lange, ob die Klimaerwärmung tatsächlich auf menschlichen Einfluss zurückzuführen ist. Noch sind Messungen zum CO2-Gehalt der Atmosphäre schwierig und natürliche CO2-Quellen wie verrottende Pflanzen werden als viel wirksamer erachtet. 1957 stellen die Forscher Roger Revelle und Hans Suess jedoch fest, dass der Anteil des CO2-Isotops aus fossilen Quellen – Kohle etwa – in der Atmosphäre gestiegen ist und auch nicht im vermuteten Maße von den Ozeanen wieder aufgenommen wird: „Die Menschheit führt derzeit ein groß angelegtes geophysikalisches Experiment durch.“ Revelle und Suess, 1957.
Ein Jahr darauf beginnt unter Mitwirkung von Revell die systematische Erforschung der CO2-Konzentration in der Atmosphäre, am Observatorium auf dem Vulkan Mauna Loa in Hawaii. Ab da ist es messbar: Jahr für Jahr steigt der CO2-Gehalt. Bis heute hat er seit 1958 um etwa ein Viertel zugenommen.
Die Menge und Wirkung anderer Treibhausgase wie Methan bleibt der Forschung jedoch zunächst weiterhin unbekannt. Ab den 1970er-Jahren werden mit Flugzeugen systematisch Luftproben aus den höheren Schichten untersucht.
Ab 1960: Immer mehr Daten und neue Technik liefern erste Klima-Modelle
Ab den 1960er-Jahren gibt es immer mehr Messdaten für Treibhausgase. Auch die Computertechnik macht Fortschritte. Erste Klima-Modelle entstehen: Computerprogramme berechnen das komplexe Geschehen in der Atmosphäre. Viele Prozesse können sie noch nicht abbilden– aber sie liefern Argumente.
1971: Die erste große Warnung vor irreversiblen Folgen
1971 meldet sich zum ersten Mal die Deutsche Physikalische Gesellschaft zu Wort, nach einem aufrüttelnden Vortrag von Hermann Flohn bei der Jahrestagung. Und warnt davor, dass der Klimawandel unumkehrbar sein könnte: „Geht aber die Industrialisierung und die Bevölkerungsexplosion ungehindert weiter, dann wird spätestens in zwei bis drei Generationen der Punkt erreicht, an dem unvermeidlich irreversible Folgen globalen Ausmaßes eintreten.“ DPG, 1971.
1985 meldet sich die Deutsche Physikalische Gesellschaft ein zweites Mal zu Wort – diesmal deutlicher. Sie warnt: Durch die stark zunehmenden Treibhausgas-Emissionen könnte die Welt-Durchschnitts-Temperatur in den nächsten 50 bis 100 Jahren um mehrere Grad ansteigen, die Meeresspiegel um fünf bis zehn Meter steigen. „Um die drohende Klimakatastrophe zu vermeiden, muss bereits jetzt wirkungsvoll damit begonnen werden, die weitere Emission der genannten Spurengase drastisch einzuschränken. Wenn diese Einschränkungen aufgeschoben werden, bis in vermutlich 1 bis 2 Jahrzehnten deutliche Klimaveränderungen sichtbar werden, wird es aller Voraussicht nach bereits zu spät sein.“ DPG, 1985
Erst im vierten Sachstandbericht des IPCC im Jahr 2007 gilt der Klimawandel wirklich als gesetzt und nicht mehr widerlegbar. „Die Haupt-Schlussfolgerung ist, dass die Erwärmung des Klimas jetzt eindeutig ist, eindeutig, und das wird offensichtlich durch Beobachtungen der Luft- und Ozean-Temperaturen, Schnee- und Eis-Schmelze, Anstieg des Meeresspiegels.“ Susan Solomon, Leiterin der Arbeitsgruppe ‚Physikalische Grundlagen‘ für den Klimabericht 2007
Als eindeutig anthropogen, menschgemacht, wird der Klimawandel erst im folgenden Bericht des Weltklimarates bezeichnet, sieben Jahre später.
Ein sehr guter Überblick über die Klimakatastrophe:
Ich wurde gefragt, wieviel CO2 in der Atmosphäre menschengemacht ist und wieviel natürlicher Kreislauf ist. Nun, es sind 28,57 %. Wir haben jetzt 420 ppm CO2. Vor 1950 waren es 800.000 Jahre lang maximal 300 ppm. Das heißt wir haben seit 1950 120 ppm in die Atmosphäre geworfen. Damit haben wir global die Temperatur um 1,5 Grad C erhöht.
Das erscheint nicht viel, aber das CO2 in der Atmosphäre ist wie Salz in der Suppe. Zuviel Salz macht die Supper ungenießbar. So ist es auch bei zuviel CO2 in der Atmosphäre. Die Erde wird unbewohnbar.
Einen sehr guten Überblick bringt die obige Dokumentation.