„Klimadaten nur zu sammeln, genügt nicht“

02.10.2018

Erst vor wenigen Tagen hat die Deutsche Forschungsgemeinschaft grünes Licht gegeben: Der Exzellenzcluster „Climate, Climatic Change, and Society“, kurz CliCCS, wird ab 2019 für sieben Jahre gefördert. Schon jetzt befassen sich Forschende mit wichtigen Aspekten hierzu, zum Beispiel beim Workshop „Future Climate Data Management“. Warum sie Klimabeobachtungen besser zugänglich machen wollen, haben wir CliCCS-Sprecher Prof. Dr. Detlef Stammer gefragt.

Mit Klimadaten wird hier der Taifun Haiyan visualisiert. 2013 raste er mit bis zu 315 Stundenkilometern über die Philippinen und Vietnam.

Prof. Stammer, Wissenschaftlerinnen und Wissenschaftler veröffentlichen regelmäßig in Fachzeitschriften, lassen Ergebnisse dort begutachten, diskutieren und kritisch prüfen. Darüber hinaus gibt es immer mehr Open Access-Portale – warum jetzt diese Initiative?

Es genügt nicht, möglichst viele Beobachtungen zu sammeln, wenn diese auf Institutsrechnern und isolierten Datenbanken liegen. Ziel muss es sein, Klima-Informationen aufzubereiten und der wissenschaftlichen Community aktiv, in hochwertiger Form und mit Fehlerbalken und sogenannten Meta-Daten versehen, zur Verfügung zu stellen. Das gilt für Beobachtungsdaten ebenso wie für Ergebnisse von Rechenmodellen oder für historische Klimadaten, die erst noch digitalisiert werden müssen.

Seit den 1990er Jahren gibt es hier erhebliche technische Fortschritte: Autonome Beobachtungsysteme, flächendeckende Satellitenbeobachtung, integrierte Klimamodelle und Hochleistungsrechner – all dies hat zu einer wahren Datenflut geführt. Diesen Schatz gilt es zu heben, zu bewahren und optimal zu nutzen! Heute und in Zukunft.

Klingt gut, wo liegt das Problem?

Damit Wissenschaftlerinnen und Wissenschaftler auf der ganzen Welt mit den Ergebnissen arbeiten können, ist es wichtig, verbindliche Standards und Datenflüsse zu haben. Das heißt, eine verlässliche Qualitätskontrolle und garantierte Zulieferung von Beobachtungen zur Archivierung und Zusammenführung in internationalen Datenzentren. Datenformate müssen vereinheitlicht werden und zur weiteren Nutzung geeignet sein. Jedem Datenpunkt müssen außerdem Meta-Daten hinzugefügt werden: wann und wo, von wem gemessen, wie bereits bearbeitet, etc.

Für all diese Probleme müssen Vertreter nationaler und internationaler Klimaforschungs- und Datenzentren gemeinsam Lösungen finden. Der aktuelle Workshop war dafür der erste Schritt. Am Ende könnte ein „Nationales Klimadatenzentrum“ mit enger Anbindung an internationale Organisationen stehen, etwa an das World Climate Research Programme, das Global Climate Observing System der WMO (World Meteorological Organization) oder die Intergovernmental Oceanographic Commission.

Wie ist es mit den Kosten?

Natürlich sind auch finanzielle Mittel erforderlich. Diese müssen aber sinnvoll eingesetzt werden. Wir brauchen eine umfassende Bestandsaufnahme, welche Daten wo und in welcher Form vorhanden sind und wo Lücken sind. Wichtige historische Daten lagern beispielsweise bisher nur als schriftliche Aufzeichnungen in Archiven von Bundeseinrichtungen und Behörden und müssen zugänglich gemacht werden.

Das klingt nach viel Arbeit. Lohnt sich das?

Die Initiative ist unverzichtbar. Vieles von dem, was wir heute wissen, wäre ohne systematische Langzeit-Datensammlung, nationalem und internationalem Austausch mit anderen Zentren nicht möglich gewesen. In diesem Bereich hat das „Integrated Climate Data Center“ (ICDC) der Universität in den letzten zehn Jahren wichtige Vorarbeit geleistet. Am Ende ist das Management von Daten aus aller Welt natürlich nicht Aufgabe einzelner Institutionen oder einer Nation. Hier müssen international alle relevanten Player zusammenarbeiten.