InsightsHow we workTeamJoin English
Data Readiness Check
zurück zur Übersicht

Data Science Methoden - ab wann ist die Arktis eisfrei?

Daniel Senftleben, 01. Oktober 2020

„Das Eis in der Arktis schwindet - in diesem Sommer so stark wie fast noch nie.“ (Spiegel, 24.09.2020), „Prognose: Arktis 2050 eisfrei“ (n-tv, 24.09.2020), „Schmelzende Polkappen könnten Meeresspiegel um bis zu 39 Zentimeter steigen lassen“ (Zeit, 17.09.2020) – Meldungen dieser Art häufen sich seit einigen Tagen wieder in den Medien. Nirgendwo auf der Welt manifestiert sich der Klimawandel so stark wie in der Arktis. Doch gerade in dieser Region sind die Unterschiede in den Simulationsergebnissen von globalen Klimamodellen besonders groß, was Vorhersagen über die zukünftige Entwicklung des arktischen Eises enorm erschwert.

Auch in unseren Projekten stehen wir häufig einer Vielzahl von für sich genommen jeweils hochwertigen Datenquellen gegenüber, deren Analyse jedoch zu teils widersprüchlichen Aussagen führt. In solchen Situationen ist es entscheidend, dass nicht einfach nur ein Durchschnitt aus den verfügbaren Daten ermittelt wird, sondern die verschiedenen Quellen entsprechend ihrer Aussagekraft für die zu untersuchende Fragestellung gewichtet werden. Diese Aussagekraft zu ermitteln kann allein schon eine anspruchsvolle Analyseaufgabe sein. Typischerweise wird hierfür untersucht, welche Datenquellen sich beim „Backtesting“ für jene Parameter als besonders prognosesicher erweisen, die für die Fragestellung besonders relevant sind.

Ab wann ist also erstmalig seit Jahrmillionen mit einer eisfreien Arktis zu rechnen? „Eisfrei“ wird dabei in der Regel definiert als eine Meereisausdehnung von unter 1 Mio. km2, gemessen im September (Jahresminimum). Die Prognosen der 30 weltweit renommiertesten Klimamodelle reichen hier (unter der Annahme einer wie bisher fortgesetzten globalen Treibhausgasentwicklung) vom Jahr 2040 bis ins Jahr 2100, im arithmetischen Mittel prognostizieren diese Modelle eine erste Eisfreiheit im Jahr 2076 (siehe rote Linien in Abbildung 1).

Abbildung 1. Klimaprognosen der Septembermittelwerte der arktischen Meereisausdehnung von 29 globalen Klimamodellen (grau), mit ihrem arithmetischen Mittel (rot) und dem gewichteten Mittel nach MDER (blau). Die senkrechten Linien zeigen die Zeitpunkte, ab denen die jeweils mittlere Eisausdehnung erstmalig unter 1 Million km² fällt. Grau schattierte Flächen zeigen den Bereich um das jeweilige Mittel von +/- einer Standardabweichung. Adaptiert von Senftleben et al. 2020, Abbildung 7.

Um diese Unsicherheit einzuschränken, lässt sich die MDER-Methode („Multiple Diagnostic Ensemble Regression“, Karpechko et al. 2013) verwenden. Im ersten Schritt werden über einen komplexen iterativen Algorithmus diejenigen Parameter bestimmt, die für die Prognosen der Eisbedeckung besonders relevant sind. Aus einem Pool von 15 verschiedenen Diagnostiken wurden hier die mittlere Meereisbedeckung und die Veränderung der arktischen Lufttemperatur als die relevanten Parameter identifiziert. Im zweiten Schritt gewichtet man die Klimamodelle bei der Mittelwertbildung danach, wie gut ihre Vorhersagen in Bezug auf diese beiden Aspekte in der Vergangenheit lagen. Hierdurch verkleinert sich die Prognosespanne der ersten Eisfreiheit der Arktis bereits um 15 Jahre. Zusätzlich verschiebt sich das gewichtete Mittel um 14 Jahre nach vorne auf das Jahr 2062 (siehe blaue Linien in Abbildung 1).

Die MDER-Methode ist nur eine Möglichkeit, exaktere Aussagen aus den breit gestreuten Simulationsergebnissen des arktischen Klimas abzuleiten – jedoch weisen auch nahezu alle anderen Studien zu diesem Thema auf pessimistischere Zukunftsaussichten der Arktis hin, als das reine arithmetische Mittel suggeriert. Dies liegt zu einem großen Teil daran, dass die tatsächlich gemessenen Rückgänge des arktischen Meereises in den letzten Jahrzehnten deutlich stärker waren, als sie den Klimasimulationen nach sein sollten – was hier effektiv durch MDER korrigiert wird.

Auf unsere nxt statista Projektkontexte bezogen bedeutet dies, dass es nicht ausreicht, aus vorhandenen, abweichenden Datenquellen Durchschnittswerte zu bilden, selbst wenn diese Datenquellen von ähnlicher Qualität zu sein scheinen. Vielmehr ist eine Identifikation der für die Fragestellung relevanten Parameter vorzuschalten, und diejenigen Datenquellen sind dann höher zu gewichten, die diese Parameter besser abbilden. In wirtschaftlichen Kontexten stellen Erfahrungs- und Expertenwissen bei der Auswahl der möglichen Parameter eine unerlässliche Ergänzung dar, um diese Analysen effizient durchführen zu können.

Quellen

https://www.spiegel.de/wissenschaft/natur/eis-schmelze-in-der-arktis-diese-schlacht-ist-verloren-a-4e88ba55-4dd0-4c15-ba5f-0ec3e4832af4 (letzter Zugriff: 27.09.2020)

https://www.n-tv.de/mediathek/videos/wissen/Eisschmelze-schreitet-voran-Folgen-bereits-spuerbar-article22056686.html (letzter Zugriff: 27.09.2020)

https://www.zeit.de/wissen/umwelt/2020-09/erderwaermung-meeresspiegel-anstieg-antarktis-forschung-polkappen-schmelzen (letzter Zugriff: 27.09.2020)

Karpechko, A. Y., D. Maraun, and V. Eyring, 2013: Improving Antarctic Total Ozone Projections by a Process-Oriented Multiple Diagnostic Ensemble Regression. Journal of the Atmospheric Sciences, 70, 3959-3976. https://doi.org/10.1175/jas-d-13-071.1

Senftleben, D., A. Lauer, and A. Karpechko, 2020: Constraining Uncertainties in CMIP5 Projections of September Arctic Sea Ice Extent with Observations. Journal of Climate, 33, 1487–1503, https://doi.org/10.1175/JCLI-D-19-0075.1.

Logo© 2019 - 2020 LSP Digital GmbH & Co. KG
ImpressumDatenschutz