Computermodelle und ihre vermeintliche Unfehlbarkeit - Das Orakel der Moderne

Computermodelle haben sich in Wissenschaft, Technik und zunehmend auch im gesellschaftlichen Leben fest etabliert. Doch blindes Vertrauen bei Laien und starre Modellgläubigkeit bei Experten führen auch zu politischen Fehlentscheidungen oder direkt ins ökonomische Desaster.

Wissen ist Macht und Computermodelle ein bisschen Wahrsagerei / dpa
Anzeige

Autoreninfo

Bernd Simeon forscht und lehrt als Mathematikprofessor an der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU). Seine Thesen speisen sich aus Erfahrungen, die er in zahlreichen interdisziplinären Projekten bei der Entwicklung numerischer Simulationsverfahren gewonnen hat. Zum gleichen Themenkreis erscheint demnächst sein Buch „Die Macht der Computermodelle: Quellen der Erkenntnis oder digitale Orakel?“.

So erreichen Sie Bernd Simeon:

Anzeige

Am 16. März 2020 veröffentlichte Neil Ferguson mit seiner Arbeitsgruppe am Imperial College in London einen Bericht, der eine Simulation der gerade heraufziehenden Corona-Pandemie zum Inhalt hatte. Für Europa wie auch die Vereinigten Staaten prognostizierte das Computermodell binnen weniger Wochen ein horrendes Infektionsgeschehen und enorm hohe Opferzahlen.

Im Nachhinein stellte sich dies als weit übertrieben heraus, aber die im Bericht als unbedingt notwendig erachteten Maßnahmen, darunter Schulschließungen und das starke Herunterfahren des öffentlichen Lebens, dienten den Regierungen weltweit als Entscheidungsgrundlage für unverzügliches und drastisches Handeln. Das verwendete Computermodell enthält die stattliche Anzahl von 940 Parametern, von denen in jenem Anfangsstadium der Pandemie die wenigsten auch nur näherungsweise bekannt waren.

Zahlen und bunte Animationen

Dieses Beispiel zeigt, wie sehr sich Computermodelle in Wissenschaft, Technik und zunehmend auch im gesellschaftlichen Leben etabliert haben. Wir verlassen uns auf die Richtigkeit ihrer Prognosen, sei es beim Blick auf den Wetterbericht, bei der Konstruktion eines Wolkenkratzers, bei der Routenplanung mit dem Navigationsgerät und mittlerweile auch in vielen Bereichen der Medizin. Während früher nur Theorie und Experiment als Quelle von Erkenntnis und Planungsgrundlage zur Verfügung standen, ist heute das programmierte Nachbilden der Wirklichkeit als weiterer Zugang unverzichtbar geworden.

Selbst wenn uns eigentlich klar ist, dass der Blick in die Zukunft stets Unwägbares enthält und gehörig schief gehen kann, so schenken wir doch den Zahlen und bunten Animationen allzu gerne Glauben – schließlich ist die dahintersteckende Mathematik exakt, eindrucksvoll, tatsächlich sogar einschüchternd. Unterschwellig entsteht die Erwartungshaltung, irgendwann alles berechnen und selbst den Zufall bändigen zu können. Auf diese Weise übernehmen die Computermodelle die Rolle eines modernen Orakels.

Ein großes Missverständnis

Im Altertum war der „Götterspruch“, für den der Begriff des Orakels steht, eine etablierte Vorgehensweise, um wichtige Entscheidungen durch göttlichen Beistand abzusichern. Die Durchführung oblag meist speziell ausgebildeten Priestern und war eingebettet in religiöse Zeremonien, was heutzutage reichlich abstrus erscheint. Von einer höheren Warte aus gesehen hat jedoch die Wissenschaftsgläubigkeit inzwischen die Rolle der Religionen in der Gesellschaft eingenommen.

Das Leitmotiv „Follow the Science“ speist sich aus unserem tiefen Wunsch nach einem sinnhaften und optimierten Leben. Hinter diesem Motto steckt aber ein großes Missverständnis, denn die Wissenschaft liefert gerade nicht die Gewissheiten, nach denen wir dürsten. „Ich weiß, dass ich nichts weiß“ – dieser Spruch von Sokrates bringt den Ansatz und die Methodik der Wissenschaft auf den Punkt. Nämlich mittels organisierter Skepsis alles, auch das längst als gesichert Geglaubte, immer wieder neu auf den Prüfstand von Logik und Verstand zu stellen.

Fallstricke allerorten

Im konkreten Fall der Computermodelle kapitulieren nicht nur Laien ganz schnell vor der enormen Komplexität dessen, was mit enormem Aufwand an Ressourcen berechnet wird, und vertrauen blind den Prognosen. Auch Experten sind versucht, die gebotene Skepsis hintanzustellen und der eigenen Begeisterung für ihre Forschung, oft gepaart mit dem Drang nach Geltung und Publicity, Vorrang zu geben.

Dabei gibt es genügend Fallstricke, die einer Simulation zum Verhängnis werden können. Zuallererst sind dies, wie beim eingangs geschilderten Beispiel, die Parameter, die es aus Messungen und Datenerhebungen zu schätzen gilt. Auf John von Neumann, den Informatik-Pionier und wissenschaftlichen Tausendsassa, dem wir die erste computerbasierte Wettervorhersage verdanken, geht das folgende Bonmot zurück: „With four parameters I can fit an elephant, and with five I can make him wiggle his trunk.“

Es würden ihm also vier Parameter reichen, um ein Simulationsergebnis so anzupassen, dass die Gestalt eines Elefanten herauskommt. Und bei fünf Parametern würde dann sogar der Rüssel wackeln. Mit anderen Worten: Mit geschickter Manipulation der Parameter kann man eine große Bandbreite an Lösungen produzieren.
 

Mehr zum Thema:


Das, was ein Computermodell zu prognostizieren vermag, bedarf demnach einer vielschichtigen und abwägenden Interpretation seitens seiner Entwickler. Dass jene sowohl disziplinär als auch durch den persönlichen Erfahrungshorizont geprägt sind, führt zu einer weiteren Achillesferse. Computermodelle sind anfällig für einen Bias, eine methodische Verzerrung, und können niemals alle denkbaren Gesichtspunkte gleich gut abdecken. Ihre vermeintliche Objektivität hält demnach einer eingehenden Prüfung nicht stand.

Wettlauf von Hase und Igel

Ein dritter Punkt, den man beim kritischen Prüfen einer Modellrechnung im Blick haben sollte, erinnert an den Wettlauf von Hase und Igel. Moderne Softwarepakete ermöglichen es, wie in einem Lego-Kasten unterschiedlichste Aspekte einer komplexen Fragestellung über entsprechende Teilmodelle miteinander zu verkoppeln. Ob das so entstehende Megamodell, das dann bei einem Simulationslauf einen gigantischen Zahlenberg produziert, tatsächlich die mathematisch korrekte Problemlösung liefert, ist eine ganz andere Frage. In aller Regel eilt das mit moderner Software und Supercomputern Machbare dem Verstandenen und rigoros Abgesicherten um Dekaden voraus.

Die Wettervorhersage, und damit verknüpft die Prognosen zum Klimawandel, sind ein gutes Beispiel für dieses Dilemma. Ausgangspunkt für ein Modell der Atmosphäre sind die Gleichungen der Strömungsmechanik nach Navier und Stokes, die mehr als 150 Jahre nach ihrer Entdeckung noch immer nicht vollständig verstanden sind. Tatsächlich stellt die Analyse dieser Gleichungen eines der Millenniumprobleme der Mathematik dar, und das Clay Mathematics Institute hat hierfür seit langer Zeit das hohe Preisgeld von einer Million US-Dollar ausgeschrieben.

An die Lücke in der Theorie hat man sich inzwischen gewöhnt und simuliert das Wind- und Wetterverhalten sehr erfolgreich auf der Basis dieser Beschreibung. Doch ein umfassendes Modell benötigt eine Reihe weiterer komplexer Gleichungen für Temperatur, Feuchte, die Atmosphärenchemie, den Austausch mit den Ozeanen und zahlreiche weitere Effekte. Aus der Verkopplung resultiert ein Megamodell, das zwar auf dem Computer lauffähig ist, vor dem aber die heute verfügbaren Werkzeuge der Mathematik kapitulieren.

Manifest für gebotene Skepsis

In Naturwissenschaft und Technik hat sich die mathematische Modellierung als unglaublich erfolgreich erwiesen – der Physiker und Nobelpreisträger Eugen Wigner sprach deswegen auch von der „unreasonable effectiveness of mathematics“, was man etwa mit unerklärlicher Effektivität übersetzen kann. Ob die darauf basierenden Computermodelle verlässliche Resultate liefern oder aufgrund eines der genannten Fallstricke danebenliegen, hängt ganz wesentlich von den Menschen ab, die die Modelle entwickeln und anwenden.

Der italienische Statistiker Andrea Saltelli hat dazu, zusammen mit 21 weiteren Forschern, ein Manifest verfasst, das einen empfehlenswerten Leitfaden darstellt und im renommierten Wissenschaftsmagazin Nature erschienen ist. Als zentrale Botschaft empfehlen die Autoren, die eigene Unwissenheit anzuerkennen, wie es von Sokrates so treffen formuliert wurde, und die daher gebotene Skepsis gegenüber den eigenen wie auch den fremden Resultaten wieder stärker ins Bewusstsein zu rücken.

Ein freier Blick entsteht

Nimmt man den Computermodellen die Unfehlbarkeits-Aura und entzaubert sie auf diese Weise, wird zwar unser Drang nach Sicherheit und Kontrolle in allen Aspekten des Lebens ein Stück weit zurückgeworfen. Gleichzeitig wird aber so der Blick frei auf das, was sie tatsächlich zu leisten imstande sind.

Gut abgesicherte und wohl verstandene Simulationen sind wie Leitstrahlen, die ein Objekt oder unbekanntes Gelände abtasten. Sie zeigen Pfade in die Zukunft auf. Dabei fokussieren sie nur auf bestimmte Ausschnitte der Realität, bilden aber deren wesentliche Eigenschaften ab und repräsentieren eine mittlerweile unverzichtbare Quelle der Erkenntnis, für neue Technologien wie auch für belastbare gesellschaftliche Weichenstellungen. Steht eine Simulation jedoch auf tönernen Füßen und ist die Erwartungshaltung an ihre Prognosen besonders hoch, mutiert das Modell zu einem digitalen Orakel, das uns Sicherheit nur suggeriert.

Anzeige