Modellierungen am Computer - Kalkulierter Alarm

Immer wieder verbreiten renommierte Forscher und Institutionen Prognosen, nach denen der Menschheit größtes Unheil drohe, falls die Politik nicht drastische Maßnahmen trifft. Doch viele dieser Computermodelle haben sich als übertrieben erwiesen.

Illustration: Karsten Petrat
Anzeige

Autoreninfo

Cornelia Stolze ist Wissenschafts- journalistin in Hamburg.

So erreichen Sie Cornelia Stolze:

Anzeige

Stefan Rahmstorf ist sichtlich besorgt: „Viele Politiker bremsen noch immer beim Klimaschutz“, warnte der Klima- und Meeresforscher vom Potsdam-Institut für Klimafolgenforschung (PIK) kürzlich im Nachrichtenmagazin Spiegel. Doch eines steht für den Wissenschaftler fest: „Weniger Tempo bedeutet mehr Katastrophen.“ Spätestens seit 2015, so Rahmstorf, sollte jedem Politiker bewusst sein, dass sich das Zeitfenster, in dem eine lebenswerte und nachhaltige Zukunft für alle gesichert werden kann, rapide schließe.

Das sei nicht nur eine der Kernaussagen des aktuellen Syntheseberichts des Weltklimarats IPCC. Dafür sprächen auch die Fakten. „Die globale Temperatur steigt nahezu linear mit den kumulativen CO2-Emissionen.“ Dies sei eines der zentralen Ergebnisse der Klimawissenschaft und in den Berichten des IPCC belegt. „Das ist so leicht zu verstehen wie die Tatsache, dass der Wasserstand in meiner Badewanne umso höher steigt, je mehr Wasser ich einlaufen lasse und je später ich den Hahn wieder zudrehe.“ 

Es sei höchste Zeit zu handeln, so Rahmstorf. Denn die Restmenge an CO2, die laut IPCC noch in die Luft gepustet werden könne, reiche „keine zehn Jahre mehr“. Die Emissionen müssten daher rasch sinken, fordert der Wissenschaftler. Wer jetzt weiterer Verschleppung das Wort rede, sei „so verantwortungslos wie jemand, der bei einem nahenden Tsunami den Leuten erzählt, sie sollten ruhig noch am Strand verweilen“.

Kritische Schwellen und Kipppunkte 

Rahmstorf steht mit seiner Warnung nicht allein. Der Klimawandel führe schon jetzt zu Extremereignissen, meldete Anfang November die Tagesschau. „Dazu gehörten in diesem Jahr Überschwemmungen, die Tausende Menschen in Libyen töteten, heftige Hitzewellen in Südamerika und die schlimmste Waldbrandsaison, die Kanada je erlebt hat.“ Hintergrund war ein Bericht des EU-Klimawandeldienstes Copernicus (C3S). Demzufolge gab es laut ARD nicht nur im Sommer, sondern auch im Oktober einen neuen globalen Hitzerekord. Das gesamte Jahr 2023 war damit angeblich „so heiß wie seit mindestens 125.000 Jahren nicht“.

Auch die deutsche Bundesregierung verkündet auf ihrer Website, dass ein „ungebremster Klimawandel unsere Lebensgrundlagen bedroht“. Selbst wenn es gelänge, die Erderwärmung auf 1,5 Grad Celsius zu begrenzen, werde es nicht nur häufigere und intensivere Extremwetterereignisse geben, die zu immensen Schäden führen und Lebensgrundlagen zerstören würden. Ein ungebremster Klimawandel werde auch „abrupte und besonders starke Klimaänderungen“ mit sich bringen, mahnt die Ampelkoalition: Wenn kritische Schwellen, sogenannte Kipppunkte, im Klimasystem erreicht würden, verstärke sich der Klimawandel selbst.

Vorhersagen erstaunlich oft falsch

Es ist nicht das erste Mal in der Geschichte der Menschheit, dass Einzelne oder ganze Gruppen eine drohende Endzeit prophezeien. Schon seit Jahrhunderten sagen Prediger und Propheten das Ende vorher – sollten die Menschen ihr Verhalten nicht grundlegend ändern. Nur berufen sich die heutigen Protagonisten nicht auf eine prophetische Gabe. Sie setzen auf die Wissenschaft. Genauer gesagt: auf Computersimulationen und mathematische Modelle. 

Diese dienen Forschern als Werkzeug, um komplexe Phänomene zu untersuchen, zum Beispiel Veränderungen des Wetters, des Klimas oder den Verlauf von Epidemien. Am Rechner spielen Modellierer nicht nur durch, wie sich das jeweilige Geschehen alleine entwickeln wird. Sie versuchen damit auch zu simulieren und zu prognostizieren, wie sich bestimmte Maßnahmen und Eingriffe des Menschen auf das jeweilige Geschehen auswirken werden.

Allerdings liegen Modellierer mit ihren Vorhersagen erstaunlich oft falsch. Und zwar selbst dort, wo derlei Prognosen besonders gut funktionieren – beim Wetter. Mit im Mittel etwa 70 Prozent Treffsicherheit gelingt es Meteorologen, das Wetter in den nächsten sieben Tagen vorherzusagen. In die Modelle gehen zahlreiche Messungen ein, die das atmosphärische Geschehen vom Boden bis viele Kilometer in die Höhe abbilden – und das alles mit höchster Genauigkeit. Zudem sind die Zusammenhänge von Temperaturen und Drücken sowie Wind-, Wasser- und Planetenbewegungen lange untersucht und werden inzwischen recht gut verstanden. Doch wie man es dreht und wendet: 30 Prozent, fast ein Drittel, der Wettervorhersagen treffen nicht zu.

Grundlegende Prinzipien der Wissenschaft

Problematisch wird es allerdings, sagen Kritiker, wenn Modellierer bei ihren Berechnungen und bei der Interpretation ihrer Ergebnisse grundlegende Prinzipien der Wissenschaft ignorieren und in der Öffentlichkeit übertriebene Ängste schüren. Genau das sei während der Corona-­Pandemie in Deutschland wie auch in anderen Ländern passiert, sagt der Mathematiker und Epidemiologe Ralph Brinks, der an der Universität Witten-Herdecke lehrt. „Von einigen Forschern wurden regelrechte Horrorszenarien verbreitet.“ Dabei sei klar gewesen, dass es auch ganz anders und viel harmloser kommen kann. „Auf solche Unsicherheiten muss man als Wissenschaftler hinweisen. Man kann sich nicht selektiv die Ergebnisse raus­picken, die einem in den Kram passen, und über den Rest schweigen.“ Jedoch – Panik zu verbreiten, so Brinks, habe ins politische Kalkül gepasst. Abwegig ist das nicht. 
 

Mehr zum Thema:


Ende März 2020 tauchte ein internes Papier aus dem Bundesinnenministerium auf. Die Autoren des Schriftstücks warnten darin, dass es zu einer fatalen Überlastung des Gesundheitssystems kommen könne, und beschrieben unter anderem ein Worst-­Case-Szenario. Demzufolge hätten sich bis Ende Mai 2020 etwa 70 Prozent der Bevölkerung infiziert; bis zu 350.000 Menschen hätten gleichzeitig intensivmedizinische Versorgung benötigt.

Den Verfassern des Papiers zufolge hätte dies bedeutet, dass 85 Prozent der Betroffenen abgewiesen werden müssen. Viele Schwerkranke würden dann qualvoll um Luft ringend zu Hause sterben. Diese Gefahren, so der Tenor des Papiers, müsse man in der politischen Krisenkommunikation stärker betonen. Um die „gewünschte Schockwirkung“ zu erzielen, müssten daher die konkreten Auswirkungen einer Durchseuchung auf die menschliche Gesellschaft verdeutlicht werden.

„Politisch wirksamer Paukenschlag“

Eine maßgebliche Rolle bei den ersten Modellen spielte das Narrativ vom drohenden exponentiellen Wachstum der Epidemie, bei dem sich die Zahl der Infizierten quasi explosionsartig erhöht. Der britische Physiker und Epidemiologe Neil Ferguson vom Imperial College in London sorgte mit einem solchen Modell in Großbritannien für einen „politisch wirksamen Paukenschlag“, erinnert sich der Physiker Bernhard Müller, der an der Monash University in Australien zu Supernova-Explosionen forscht. 

Am 16. März 2020 hatte Ferguson vorausgesagt, dass es weltweit zu katastrophal vielen Todesfällen kommen werde, wenn die jeweiligen Regierungen nicht drastische Maßnahmen ergreifen würden. Allein in Großbritannien sei mit 510.000 Toten zu rechnen. Damit überzeugte Ferguson die britische Regierung davon, einen Lockdown und strenge Regeln mit Ausgangssperren einzuführen. Viele Länder folgten dem Beispiel. Mehrere Modellierer, darunter der Nobelpreisträger Michael Levitt, zogen die Berechnungen Fergusons bald darauf in Zweifel. Bei der Anzahl der prognostizierten Todesfälle habe sich dieser höchstwahrscheinlich um das Zehnfache verschätzt, so Levitt.

Unzutreffende Vorhersagen machte unter anderen auch die Deutsche Akademie der Naturforscher Leopoldina. In einer Ad-hoc-Stellungnahme vom 8. Dezember 2020 hatte sie prophezeit: „Wenn ab dem 14. Dezember die Maßnahmen streng verschärft werden, dann sinken die Fallzahlen in der Modellrechnung bis Januar auf unter 50 pro 1.000.000 Einwohner.“ In Wirklichkeit trat dies trotz des erfolgten harten Lockdowns nicht ein. Die Inzidenzraten stiegen danach zwar nicht weiter. Sie verharrten aber auf hohem Niveau.

Wer trifft sich mit wem?

Anders als bei den Meteorologen basierten die Pandemie-Modellierungen allerdings auch auf fehlenden oder schlicht nicht vorhandenen Daten. „Gute Modelle berücksichtigen die wichtigsten Faktoren des Infektionsgeschehens“, erläutert Brinks. Im Fall von Covid-19 gehörten dazu die Altersstruktur der Bevölkerung. Daten, die widerspiegeln, welche Unterschiede es zwischen Altersgruppen gibt, wie hoch die Dunkelziffer der Infizierten ist, sowie Informationen über das Verhalten einzelner Personen: Wer trifft sich mit wem? Wer fährt zur Arbeitsstätte? Wer arbeitet im Homeoffice? All das wirkt sich schließlich auf die Verbreitung des Virus aus.

Doch solche Informationen gab es nicht. „Auch noch ein Jahr nach Beginn der Krise wurden weiterhin kaum systematisch Daten auf Bevölkerungsebene erhoben“, berichtet Brinks. Stattdessen wurde von Anfang an wild getestet und herumprobiert. Mal waren es PCR-, mal Antigen-Tests. Mal wurde viel getestet, mal wenig. Mal waren die Tests in Testzentren gratis, zu anderen Zeiten musste man dafür zahlen. Auch der PCR-Test selbst wurde nie sauber validiert. „Das war ziemlich willkürlich, was und wie da getestet wurde“, kritisiert Brinks. Aussagekräftige Informationen darüber, welcher Prozentsatz in einer Bevölkerung wirklich infiziert oder gesund, krank oder genesen ist, erhalte man so nicht. 

„Flatten the curve“

Erklärtes Ziel der Regierung bei all dem war, zu verhindern, dass es zu einer Überlastung des Gesundheitswesens kommt. „Flatten the curve“, die Kurve abflachen, lautete die Botschaft. Dazu kursierte stets das Bild von einer steilen und einer flachen Kurve. „Mit schützenden Maßnahmen“, war darauf zu lesen, bleiben die Fallzahlen so niedrig, dass die Kapazität des Gesundheitssystems gerade reicht. Ohne Maßnahmen wären die Fallzahlen doppelt so hoch – und die Hälfte der Betroffenen nicht versorgt. 

Um das zu verhindern, griff die damalige Bundesregierung im März 2020 zu Grundrechtseinschränkungen als Maßnahmen, wie sie sich bis dahin wohl kaum ein Deutscher hätte vorstellen können. Lockdowns mit wochen- und monatelangen Geschäftsschließungen. Geschlossene Schulen, gesperrte Spielplätze, Ausgangssperren, Reiseverbote, abgeriegelte Seniorenheime. Krankenhäuser, die Angehörigen verwehrten, Sterbenden die Hand zu halten und persönlich von ihnen Abschied zu nehmen.

Ralph Brinks will die Schuld jedoch nicht allein den Modellierern und den Politikern geben. „Die Pandemie traf auch auf eine Medienlandschaft, die in weiten Teilen unerfahren mit Zahlen war.“ Viele Medienanstalten hätten epidemiologische Begriffe unreflektiert übernommen und nicht einordnen können. Nicht zuletzt aus Sensationsgier und um Quote oder Klickzahlen zu steigern, hätten Journalisten im Wechselspiel mit Modellierern und Politik die Stimmung im Land aufgepeitscht und ein Klima der Angst produziert.

Keine bundesweite Überlastung des Gesundheitssystems

Wer sich heute im Rückblick die Fallzahlen der deutschen Krankenhäuser in den Pandemie-Jahren ansieht, gerät ins Staunen. Die Anzahl der dort behandelten Fälle ist nach Angaben des Statistischen Bundesamts in den Pandemie-Jahren gegenüber 2019 nicht gestiegen, sondern deutlich gesunken. Insgesamt wurden in den drei Jahren 2020 bis 2022 im Krankenhaus nach Recherchen des Daten-Analysten Tom Lausen 7,5 Millionen weniger Fälle behandelt, als es unter normalen Umständen zu erwarten gewesen wäre. Auch an der Summe der intensiv­medizinischen Behandlungen ist 2020 und 2021 keine Pandemie zu erkennen. Im Jahr 2019 waren noch 2,267 Millionen Fälle auf den Intensivstationen versorgt worden. 2020 waren es nur noch 2,049 Millionen. Noch niedriger lag der Wert 2021 mit 1,897 Millionen.

Eine bundesweite Überlastung des Gesundheitssystems gab es seit 2020 kein einziges Mal. Das ergab eine Anfrage der AfD-Fraktion um den Abgeordneten Martin Sichert an die Bundesregierung. Während der Covid-19-Pandemie habe es zeitlich nur drei „Belastungsspitzen“ gegeben, in denen 21 bis 24 Prozent der intensivmedizinischen Gesamtkapazitäten in Deutschland durch Covid-19-Fälle belegt waren, teilte sie mit. Diese Höchstwerte lagen nach Angaben der Bundesregierung nicht im vermeintlich schlimmsten Jahr 2020, in dem es noch keinerlei Impfung gab. Die Höchstwerte lagen vielmehr im Januar 2021, im April 2021 und im Dezember 2021, nachdem viele Deutsche bereits gegen Covid-19 geimpft worden waren. 

Illustration: Karsten Petrat

Wenn das deutsche Gesundheitssystem so gut durch die Pandemie gekommen ist, heißt das nicht automatisch, dass das den drastischen Maßnahmen zu verdanken ist. Auch Schweden hat die Krise zum Beispiel ohne überhöhte Sterblichkeit und ohne Überlastung des Gesundheitssystems überstanden. Dort aber gab es während der Pandemie keinerlei Grundrechtseinschränkungen.

Die nächste Bedrohung der Menschheit

Glaubt man den Apologeten der aktuellen Bundesregierung, steht allerdings mit dem Klimawandel schon die nächste Bedrohung der Menschheit vor der Tür. Nur streiten sich auch hier die Experten darum, wer die richtigen Messungen, Methoden und Modelle hat – und widersprechen sich mitunter selbst. So sagten zahlreiche Forscher und Medien in den 1970er Jahren eine schon bald einsetzende neue Eiszeit voraus. Ursache dafür sei die Verschmutzung des Planeten durch den Menschen.

„The Big Freeze“ titelte 1977 nach einer längeren Kälteperiode das amerikanische Time Magazine und berief sich dabei auf Wissenschaftler und Computer der amerikanischen Wetterbehörde NOAA (National Oceanic and Atmospheric Administration). Bislang ist die neue Eiszeit nicht eingetreten. Stattdessen ist das Pendel umgeschlagen. Jetzt sollen Hitze, Dürre und schmelzende Polkappen drohen.

Das Ende des arktischen Eises sagten Forscher schon im September 2007 für das Jahr 2022 voraus. Die tageszeitung meldete damals, die Arktis könne in 15 Jahren vollständig eisfrei sein: „Neuen Messungen zufolge taut das Eis im Sommer in der Arktis viel schneller als bislang angenommen.“ Das habe der Leiter des „Polar View“-Projekts mitgeteilt, das im Auftrag der ESA mithilfe von Satellitenbeobachtungen die Entwicklung des Eises an beiden Polen verfolgt. 

Demnach sei die Eisdecke in der Arktis binnen zwei Jahrzehnten um etwa 45 Prozent geschmolzen. Inzwischen hat die Menschheit das Jahr 2023 erreicht – und das arktische Eis ist noch immer da. 2015 musste die NOAA ohnehin ihre globalen Temperaturdaten revidieren. Frühere Studien hatten gezeigt, dass die Erderwärmung mehrere Jahre stagnierte. Über diese sogenannte „Klimapause“ war unter Experten heftig debattiert worden. Doch dann fand die NOAA eine interessante Lösung: Die neue Temperaturkurve würde sich zwar nur geringfügig von früheren Daten unterscheiden. Dennoch zeige sie nun für die letzten paar Jahre einen ansteigenden Trend.

Die Tücken der Messungen

Reto Knutti, einer der führenden Klimaforscher der Schweiz, erklärt die Tücken der Messungen in seinem Zukunftsblog: Die globale Oberflächentemperatur der Erde sei ein komplexes Konstrukt. Es besteht aus Tausenden von Messungen zu Wasser und zu Land. Früher seien diese Messungen von Hand gemacht worden. Heute erfolge das meist automatisiert durch verschiedenste Messstationen. „Die Krux dabei ist“, verrät Knutti, „dass sich die Messsysteme und Methoden stark voneinander unterscheiden. Und sie verändern sich im Verlauf der Zeit.“ Forscher wie er müssten die verschiedenen Systeme und Datensätze daher „zuerst vergleichbar machen, um sie zu kombinieren“. Ausgeklügelte Modelle und statistische Verfahren seien notwendig, „um aus lückenhaften Daten von verschiedenen Instrumenten überhaupt ein einheitliches Bild zu erzeugen“.

Derlei Feinheiten geben für Veröffentlichungen in renommierten Fachzeitschriften und Schlagzeilen in den Massenmedien freilich wenig her. Wer sich aus der Masse der Forscher herausheben will, muss Besonderes liefern – und notfalls einen Teil der Wirklichkeit dafür einfach unerwähnt lassen. So jedenfalls schildert es der Klimaforscher Patrick Brown vom Breakthrough Institute in Berkeley, der vor kurzem eine Studie im angesehenen Fachjournal Nature veröffentlicht hat. In einem frei zugänglichen Artikel für das Magazin The Free Press räumt er öffentlich ein, dass er in dem Nature-Artikel über Waldbrände in Kalifornien zumindest nicht die volle Wahrheit geschrieben hat. Der Grund: In der Vergangenheit seien seine Arbeiten oft auch deshalb abgelehnt worden, weil sie inhaltlich zu weit vom „Mainstream-­Narrativ“ abgewichen seien.

Hinweis taucht im Artikel nicht auf

Dieses Mal war Brown gegenüber Nature anders vorgegangen. In dem am 30. August 2023 veröffentlichten Artikel ließen Brown und seine Kollegen bewusst andere „offensichtlich relevante Faktoren“ unerwähnt, die bei Waldbränden eine Rolle spielen. Dazu zählt er sowohl Brandstiftung als auch forstwirtschaftliches Missmanagement. Stattdessen fokussierte er eng die menschengemachten Ursachen für die Zunahme von Waldbränden. Als Kernbotschaft halten Brown und die anderen Autoren des Nature-Artikels fest, dass sich die Zahl der durch den menschengemachten Klimawandel verursachten Wald- und Buschbrände in Kalifornien um 25 Prozent erhöht habe. In einem Beitrag für einen Blog dagegen gibt Brown an, dass 80 Prozent aller Waldbrände in den USA auf Brandstiftung zurückzuführen seien. Dieser Hinweis taucht in dem Nature-­Artikel nicht auf.

„Diese Art des Framings, bei der der Einfluss des Klimawandels unrealistisch isoliert betrachtet wird, ist die Norm für hochkarätige Forschungsarbeiten“, berichtet Brown. In einem anderen wichtigen Nature-Artikel hätten Wissenschaftler beispielsweise berechnet, dass die beiden größten Auswirkungen des Klimawandels auf die Gesellschaft die Todesfälle im Zusammenhang mit extremer Hitze und die Schäden in der Landwirtschaft sind. Die Autoren hätten jedoch nicht erwähnt, dass der Klimawandel für keine dieser beiden Auswirkungen die Hauptursache ist. Denn: In Wirklichkeit sei die Zahl der hitzebedingten Todesfälle zurückgegangen, und die Ernteerträge sind trotz des Klimawandels seit Jahrzehnten gestiegen, so Brown.

„Sie fragen sich jetzt vielleicht, ob ich meine eigene Nature-Studie verleugne“, schreibt der Klimaforscher. „Das tue ich nicht. Im Gegenteil, ich denke, dass sie unser Verständnis für die Rolle des Klimawandels im täglichen Verhalten der Wildtiere fördert. Es ist nur so, dass der Prozess der Anpassung der Forschung an eine renommierte Zeitschrift dazu führte, dass sie weniger nützlich war, als sie hätte sein können.“

 

Die Dezember-Ausgabe von Cicero können Sie jetzt am Kiosk oder direkt bei uns kaufen.

Jetzt Ausgabe kaufen

Anzeige