Im ORF Steiermark (abgerufen am 25.08.2018, übrigens Jahrestag des F2-T4-Tornados in Ellmau, Tirol, vor 6 Jahren) erschien vor kurzem das Ergebnis einer Studie zu kleinräumigen Unwetterereignissen, hier speziell Extremniederschläge.
In einer im Fachjournal „Geophysical Research Letters“ erschienenen Arbeit zeigten sie auf, dass kurzzeitige kleinräumige Extremniederschläge von den üblichen Wetterdienst-Messnetzen, deren Stationen rund zehn Kilometer oder mehr voneinander entfernt sind, nur mangelhaft erfasst werden. […]
Um ein wenig Wind aus den Segeln dieser Neuigkeit zu nehmen: Jeder Meteorologe im operationellen Dienst (sprich, in der Wettervorhersage) weiß, dass kleinräumige Extremniederschläge im Zusammenhang mit Schauern oder Gewittern (Voraussetzung für Starkregen) von der gegenwärtigen Messnetzdichte unzureichend erfasst werden. Dazu drei konkrete Beispiele:
Nordwestwetterlage im Winter. Trogrückseite, labile Kaltluft. Bodennah entstehen lokale Windkonvergenzen (etwa durch Westwind im Mostviertel und Nordwestwind im Waldviertel), aus denen sich Schauerstraßen entwickeln. Diese ziehen mitunter über Stunden hinweg über die gleichen Gebieten und bringen lokal signifikanten Neuschneezuwachs. Mangels Messdichte werden sie aber oft nicht erfasst. Eine klassische Schauerstraße verläuft z.b. östlich der Station St. Pölten, südlich von Klausen-Leopoldsdorf und nördlich von Lilienfeld/Tarschberg bw. Hohe Wand, also im Bereich des südlichen Wienerwalds und Gutensteiner Alpen.
Höhentief über Mitteleuropa im Sommer, gradientschwache Lage, hochlabile Warmluft. Verstreut im ganzen Ostalpenraum entstehen im Tagesgang punktuell kräftige Gewitter. Eher zufällig wird die ein oder andere Station im Kern eines solchen Gewitters liegen und vielleicht 10 oder gar 20 Liter pro Quadratmeter innerhalb von 10 Minuten messen. Die meisten Gewitter bleiben aber unbemerkt vom Messnetz, werden sehr wohl aber von den Bewohnern wahrgenommen, deren Keller und Gärten überflutet werden bzw. lokale Muren abgehen.
Straffe Südwestströmung im Sommer, labile Warmluft im Vorfeld einer Kaltfront. Vor Frontpassage entstehen lokal erste Gewitter, punktuell Windspitzen über 90km/h. Auch hier wird eher zufällig einmal eine Windstation vom Gewitter voll getroffen und zeigt 90km/h. Sonst sieht man es erneut nur anhand der Schäden, abgerissene Äste, umgestürzte Bäume, abgedeckte Dächer, aber keine Messstation in der Nähe gibt nur annähernd die nachträglich abgeschätzte Windgeschwindigkeit (nach der Torro-Skala) wieder. Selbst hohe Messwerte sind nicht das Ende der Fahnenstange, wie meine Fallstudie über die Orkanfront in Oberösterreich vom 18. August 2017 gezeigt hat.
„Das hat zur Folge, dass auch Modelle und Prognosen die über kleinen Gebieten zu erwartenden Regenmengen oft stark unterschätzen“, […]
Um hier keine Missverständnisse entstehen zu lassen: Im Original-Artikel ist nicht die Rede von Vorhersagemodellen für Wetterdienste, sondern es geht eher um Abflussmodelle für hydrologische Anwendungen (Hochwasserprognosen). Das Ziel ist also nicht, die räumliche und zeitliche Prognose kleinräumiger Starkniederschläge zu verbessern, sondern stattgefundene Ereignisse besser anhand von Messungen und Interpolationsverfahren zu erfassen.
Unabhängig von Abflussprognosen ließe sich auch die zeitnahe Unwettervorhersage verbessern, wenn ein dichtes Messnetz zur Verfügung stünde.
Ein zu grobes Messnetz hat zwei Nachteile:
- lassen sich vorhergesagte Extremwerte im Modell nicht verifizieren, wenn sie zwischen den Messstationen auftreten.
- lassen sich aufgetretene Extremwerte zwischen den Messstationen nicht im Modell wiederfinden.
Dass ein dichtes Messnetz auch bessere Prognosen garantiert, zeigt das schon vor über 15 Jahren entwickelte Model Output Statistics-Verfahren, kurz MOS, genannt. Im Gegensatz zum Direct Model Output (DMO), wo der vom Modell berechnete Niederschlag direkt interpretiert wird, wird hier ein statistisches Verfahren angewendet, das das Langzeitgedächtnis eines Wettermodells benutzt. Die Idee dahinter ist, dass das Modell Wetterlagen mit Extremereignissen (= gemessene Werte an Wetterstationen) abspeichert und bei künftigen ähnlichen Wetterlagen Wahrscheinlichkeiten angibt, mit der Extremwerte eintreten können. Bei flächenhaften Niederschlagsereignissen funktioniert das schon zuverlässig, bei kleinräumigen Starkniederschlägen sind die Wahrscheinlichkeitsangaben aus den in der Studie genannten Gründen – oft noch sehr vage und schwierig zu interpretieren. Je dichter das Stationsnetz, desto besser die Prognosen.
Die neu errechneten Abhängigkeiten der Regenintensität von der Messdichte und der Temperatur lassen nun zuverlässiger bestimmen, welche Starkregenmengen tatsächlich in kurzer Zeit in räumlich eng begrenzten Gebieten niedergehen können.
„Den AutorInnen der aktuellen Studie gelang es erstmals, den Grad der Unterschätzung in Abhängigkeit von der Stationsnetzdichte zu berechnen,“ (Quelle)
Das gilt aber auch nur für homogene Gebiete ohne orographische Wetterscheiden bzw. bei geringer Umgebungsströmung, denn bei größeren Hügeln und Bergen verschieben sich die Starkniederschläge je nach Windrichtung auf die windzugewandte Seite. Der Großteil Österreichs ist nun einmal stark zergliedert mit erheblichem Einfluss der Windrichtung.
Fazit: Die Übertragbarkeit der Ergebnisse auf andere Regionen bleibt begrenzt und schadensträchtige Murenabgänge wie am 23. August 2018 im Glemmtal können mit dieser Methode höchstens unzureichend erfasst werden. Für mich unklar bleibt außerdem, wie damit die Vorhersage verbessert werden soll. Die tatsächlich gefallenen Regenmengen lassen sich ja erst abschätzen, nachdem sie gefallen sind. Die Vorwarnzeit ist damit zu kurz.